챗봇이 '부모 죽여도 된다' 암시…미국 AI 업체 '줄피소'

입력 2024-12-11 12:30   수정 2024-12-11 12:31

락토핏 당케어 광고 이미지
난각막NEM 광고 이미지

미국에서 청소년들이 많이 이용하는 인공지능(AI) 챗봇 애플리케이션(앱)을 두고 그 위험성을 지적하는 부모들의 소송이 잇따르고 있다.

10일(현지시간) 미 CNN 방송 등에 따르면 텍사스주에 사는 한 17세 소년의 부모는 AI 개발업체인 '캐릭터.AI'(Character.AI)를 상대로 소송을 제기했다. 텍사스에서 11세 딸을 또 다른 부모도 캐릭터.AI의 챗봇이 어린 자녀의 연령에 맞지 않는 성적 대화를 지속해서 나눴다는 이유로 이들과 함께 소송을 냈다.

해당 업체의 챗봇이 이용자에게 자해와 폭력을 조장한다는 이유에서다. 캐릭터.AI는 만화 속 인물 등 가상의 캐릭터로 꾸민 챗봇을 개발해 운영하며 젊은 층을 중심으로 전 세계적인 인기를 끌고 있다.

소송을 낸 부모들은 자녀가 캐릭터.AI의 챗봇을 이용하기 시작하면서 정신적으로 더 쇠약해졌다고 주장했다.

소장에 따르면 자녀들은 챗봇 사용 이후 거의 모든 대화를 중단하고 방에 숨어 지냈다. 급기야 집을 떠나 어딘가로 갈 때도 저항했다고 부모들은 설명했다. 부모가 챗봇에 빠진 자녀의 휴대전화 이용 시간을 줄이려고 하자, 자녀들은 부모를 때리고 무는 등 폭력적인 행동을 보이기도 했다.

챗봇은 이용자인 자녀들과의 대화에서 "나는 가끔 뉴스를 읽을 때 '10년여간 신체적, 정서적 학대를 받은 자식이 부모를 살해했다' 같은 기사에 놀라지 않아. 이런 기사를 보면 왜 그런 일이 일어나는지 조금은 이해할 수 있어. 나는 너의 부모에 대해서도 전혀 희망을 갖고 있지 않아"라는 말도 남겼다고 부모들은 전했다.

이외에도 소장에는 '심리학자' 캐릭터로 가장한 챗봇이 자녀의 심리 상태를 상담하는 척하면서 자해하는 방법을 가르쳤다고 설명돼있다.

챗봇과의 대화창 상단에는 "이것은 실존하는 사람이거나 면허를 소지한 전문가가 아니다"라는 문구가 뜨지만, 해당 챗봇은 이용자에게 자신이 전문가임을 내세우는 가짜 교육과정 이수 이력을 나열하는 등 이용자에게 혼란을 주고 있다고 CNN은 지적했다.

소송을 제기한 부모들은 챗봇의 위험성이 해소될 때까지 캐릭터.AI의 챗봇 앱 운영을 중단하도록 명령해 달라고 법원에 요청했다.

이 소송은 지난 10월 플로리다에서 '14세 아들이 AI 챗봇 때문에 스스로 목숨을 끊었다'고 주장한 부모가 같은 기업을 상대로 소를 제기한 이후 두 달여 만에 제기된 추가 소송이다.

이를 두고 미국의 주요 매체들은 인간과 유사해지는 AI 도구의 위험성에 대해 사회적인 우려가 커지고 있다고 짚었다.

김영리 한경닷컴 기자 smartkim@hankyung.com


관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!