인공지능(AI) 심층학습을 뜻하는 딥러닝과 가짜를 뜻하는 페이크의 합성어인 딥페이크. AI 기술 발전의 신기함을 체험하게 해주던 이 기술은 어느새 디지털 성범죄의 또 다른 이름이 돼 버렸다. 보고 있는 것을 보이는 대로 믿을 수 없고, 내가 아닌데 나처럼 보이는 것을 내가 아니라고 항변해야 하는, 불과 10년 전만 해도 상상할 수 없었던 혼돈의 시대를 살고 있다.
딥페이크의 심각성이 연일 보도되자 방송통신심의위원회는 딥페이크의 구심점으로 알려진 플랫폼에 삭제를 ‘요청’했다고 한다. 즉각적인 내사에 착수했다는 경찰은 해당 플랫폼에 이메일로 ‘소통’을 시도했다고 한다. 외국에 서버를 둔 해당 플랫폼에서 임의적 조처를 하기 전에는 국가가 행위자 처벌과 피해자 보호를 위해 할 수 있는 수단이 많지 않다는 한계를 드러낸 것이다.
특히 우려스러운 것은 딥페이크 기술에 쉽게 접근할 수 있고, 쉽게 피해에 노출되는 이들이 청소년이라는 점이다. 경찰청 현황 자료에 따르면 딥페이크 성착취물 범죄 혐의로 입건된 전체 피의자 중 10대의 비중은 2023년 기준 75.8%이고, 피해자 중 10대가 차지하는 비율은 62%에 이른다고 한다. 이른바 n번방 사태로 디지털 성범죄의 심각성과 폐해로 온 나라가 떠들썩했던 것이 벌써 5년 전인 2019년 일이다.
지난 5년간 우리 사회가 준비한 예방책과 근절 방안은 무엇이 있을까. 속상하게도 당장 떠오르는 내용이 없다.
책보다 휴대폰이나 태블릿을 먼저 접하고 커 온 아이들은 딥페이크 기술의 경계장벽을 낮게 느끼고 디지털 성범죄에 대한 경각심도 무딜 수 있다. 어른들이 해결책을 준비하지 못한 시간 동안 다른 사람의 인격을 송두리째 짓밟는 행위가 ‘장난’이라는 이름으로 청소년들에게 인식되고 있는 것인지도 모른다. 이제는 정말 묻지도 따지지도 말고 적극적인 행동이 필요한 때가 된 것 같다.
그렇다고 온라인에 사진을 올리지 말라는 식의 피해자를 무조건 조심시키는 예방 형식이 능사는 아니다. 문제의 핵심은 피해자가 사진을 올려서가 아니라 누구든 누려야 할 표현의 자유, 소통의 자유가 비윤리적 범죄행위로 침해당했다는 점에 있기 때문이다. 피해 예방 중심이 아니라 행위 억제 중심의 교육과 예방 정책이 필요할 것이다. 또한 행위자가 위법성을 심각하게 인식하지 못했다는 이유만으로 관대한 처벌이 이뤄질 수는 없다. 행위자가 장난으로 생각했다고 피해자의 피해도 장난이 되는 것은 아니기 때문이다. 딥페이크 기술을 성인들이 영리를 목적으로 악용했다면 일반적 경우보다 훨씬 더 무겁게 처벌하거나 경제적 회생이 어려울 정도의 징벌적 손해배상 처벌을 도입할 필요도 있다. 무엇보다 피해 사실이 드러나면 즉각적인 영상 삭제 등 피해자를 보호하는 즉각적이고 강력한 조치를 도입할 수 있는 법적 뒷받침도 필요할 것이다.
n번방 사건이 전국적 공분을 자아낸 그해, ‘호텔 델루나’라는 드라마에는 공교롭게도 디지털 성범죄를 저지른 행위자를 신이 단죄하는 에피소드가 나온다. 자신은 적어도 사람을 죽인 적은 없다며 항변하는 가해자에게 주인공은 이렇게 말한다. ‘아니 죽인 게 맞아. 네가 발가벗겨 내던져 놔서 사람들 시선에 난자당해 죽었어’라고. 합성된 영상은 페이크이지만 피해자의 피해는 리얼이다.
관련뉴스