전 세계 딥페이크 피해자의 절반 이상이 한국 연예인인 것으로 나타났다. 딥페이크는 AI(인공지능) 기술을 기반으로 만들어낸 가짜 영상을 뜻한다.
28일(현지시간) 미국 월스트리트저널(WSJ)에 따르면 사이버보안 업체 시큐리티 히어로는 ‘2023 딥페이크 현황 보고서’에서 이 같은 사실을 공개했다.
보고서에는 지난해 7∼8월 딥페이크 성 착취물 사이트 10곳과 유튜브 등 동영상 공유 플랫폼에 올라온 영상물 9만5820건을 분석한 결과를 담았다.
분석 결과 딥페이크에 등장하는 개인 중 53%가 한국인으로 나타났다. 미국인이 20%로 두 번째로 많았다.
한국인 딥페이크 피해자 대부분은 가수와 배우 등 연예인이었다. 보고서는 “한국은 딥페이크 성 착취물에서 가장 많이 표적이 되는 나라”라고 지적했다. 특히 딥페이크의 최다 표적이 된 개인 10명을 꼽았는데 이 중 8명이 한국인 가수로 나타났다.
실제 연예인들의 피해가 심각하다. 아이유와 똑같은 외모의 딥페이크 영상이 중국 틱톡 등 SNS에 돌며, 엄청난 조회수를 기록하기도 했다.
가수 권은비는 자신의 사진을 합성해 불법 영상을 다수의 온라인 커뮤니티에 유포한 이들에 대해 경찰에 수사를 의뢰했다. 조인성, 송혜교의 목소리와 얼굴을 합성한 가짜 영상까지 나왔
다.
해외에서도 세계적인 팝스타 테일러 스위프트의 딥페이크 음란 이미지가 확산했는데, 조회수만 무려 4700만회에 달했다. 전 세계 4000여명의 유명인이 딥페이크 피해자인 것으로 밝혀졌을 정도로 피해 규모는 어마어마하다.
문제는 온라인의 특수성 때문에 수사가 쉽지 않다는 점이다. 경찰청에 따르면 최근 3년 동안 허위 영상물 범죄의 검거율은 2021년 47.4%, 2022년 46.9%, 2023년 51.7%로 절반 수준에 그쳤다.
텔레그램을 비롯해 서버가 해외에 있는 소셜미디어(SNS)는 수사에 협조하지 않는 경우도 빈번한 것으로 알려졌다.
김정우 기자 enyou@hankyung.com
관련뉴스