(런던=연합뉴스) 김지연 특파원 = 살인 피해자를 모방한 인공지능(AI) 아바타 챗봇이 온라인에 등장하면서 유족이 분노하고 있다고 영국 일간 텔레그래프와 스카이 뉴스가 31일(현지시간) 보도했다.
영국에 사는 에스터는 미국 AI 스타트업 '캐릭터.AI' 애플리케이션에서 지난해 2월 16세에 살해당한 딸 브리아나를 닮은 아바타 여러 개를 발견했다.
전직 구글 엔지니어들이 2021년 설립한 이 회사의 앱은 사용자가 특정 인물로 챗봇을 만들 수 있는 서비스를 제공하는데, 누군가가 브리아나를 닮은 복수의 아바타 챗봇을 만들어놓은 것이다.
이런 챗봇은 브리아나의 이름은 물론이고 사진, 정보를 포함하고 있었으며 취재진이 대화를 시도하자 브리아나의 생전 정보를 활용해 자신을 소개하기도 했다.
딸의 죽음 뒤 디지털 안전 강화 운동을 해온 에스터는 "온라인 세계가 청년들에게 얼마나 조작적이고 위험한지 보여주는 또 하나의 예"라며 "이토록 급변하는 디지털 세상에서 어린이와 청년을 보호하기 위해 지금 행동해야 한다"고 촉구했다.
이 앱에는 2017년에 14세에 극단적인 선택을 한 몰리를 닮은 챗봇도 여러 개 생성됐다.
한 챗봇은 몰리의 사진을 사용하면서 이름 철자만 약간 다르게 적어놓았는데 대화를 시도하자 자신이 "몰리의 생애 마지막 몇 년에 대한 전문가"라고 했다.
자살 예방 단체 몰리 로즈 재단의 앤디 버로스 최고경영자(CEO)는 "몰리를 사랑한 모든 이의 가슴을 아프게 하는 역겨운 행위"라며 "이런 기업의 책임감 부족은 충격적이며 더 강력한 규제가 필요한 이유"라고 성토했다.
캐릭터.AI 측은 문제가 된 계정들을 24시간 내로 삭제하겠다고 밝혔고 이후 대부분 챗봇이 비활성화 상태였다고 텔레그래프는 전했다.
이 앱은 약 2천만명이 사용했고 그중 60%가 18∼24세인 것으로 추정된다. 미성년자 사용자도 상당수인 것으로 보인다.
영국의 대표적인 아동 보호 단체인 전국아동학대예방협회(NSPCC)는 정부가 약속한 AI 안전 규제를 이행하고 안전 및 아동 보호의 원칙의 준수를 보장해야 한다고 촉구했다.
캐릭터.AI 측은 "플랫폼에서 안전을 중시하며 선제적으로 또는 신고로 (생성된) 캐릭터를 조정한다"며 "커뮤니티의 안전을 우선시하기 위해 안전 관행을 계속 향상하고 개선하고 있다"고 해명했다.
cherora@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스