![](https://img.hankyung.com/photo/202402/AA.35840819.1.jpg)
가짜 뉴스는 어느 시대, 어느 사회에도 존재한다고 봐야 한다. 문제는 대응 수준이다. 웃으며 넘기기도 하고 법률로 엄한 대응도 한다. 사회 구성원들이 이성과 합리, 인식의 수준을 높여 잘 대처하는 게 중요하다. 처벌법만 잔뜩 만든다고 가짜 뉴스가 없어진다는 보장도 없다. 궁극적으로 인간의 사회에서 거짓말이나 선동이 없어질 것이냐의 문제다. 인공지능(AI)를 활용한 ‘딥페이크(deepfake)’ 콘텐츠가 나오면서 또 규제법 논란이 일고 있다. 딥페이크는 탁월한 AI 기술을 활용해 기존 인물의 얼굴이나 특정 부위를 합성한 영상 편집물을 일컫는다. AI의 심층 학습을 뜻하는 ‘딥 러닝(deep learning)’과 가짜 ‘페이크(fake)’의 합성어다. 딥페이크는 당연히 배제 대상이다. 그렇다고 몇 건의 사례에 화들짝 놀라면서 규제법부터 만들어야 할까.
이런 어이없는 가짜 이미지 만들기는 어려운 일도 아니다. 생성형 AI 딥페이크 프로그램은 온라인상에서 쉽게 접할 수 있다. 몇 초 만에 앱을 다운받아 비싸지 않은 비용으로 유료 회원에 가입하면 프로그램을 활용해 누구라도 손쉽게 사진을 올려 조작할 수 있다. 이런 종류의 앱 가운데는 1억 명 이상의 사용자가 있는 것도 있다. 국내에서도 얼마든지 악용 가능하다.
이에 대한 대응책을 마련해야 한다. 더 이상 이건 가짜 합성물을 방치했다가 어떤 혼선과 혼란이 생길지 모른다. 이제는 사전 규제도 아니다. 미국 백악관과 의회도 치명적 위험성에 대한 경고를 했다. 그러면서 규제에 나서려 한다. 한국에서는 중앙선거관리위원회가 선거운동에서 딥페이크 콘텐츠가 활용되는 것을 막기 위해 규제를 마련하기는 했다. 본인의 당선이나 상대 후보의 낙선을 위해 사용하는 것에 대한 금지, 제3자가 특정 후보의 당선과 낙선을 위해 조작된 영상 사진 음향을 제작·배포하는 금지한 게 주 내용이다. 하지만 공직선거법 안에서만의 금지다. 이런 강력한 징벌을 선거판 밖에도 적극 적용해야 한다. AI 기술은 갈수록 발달하고 인간의 뇌에 반도체칩까지 넣는 세상이다. 대비가 필요하다.
AI에 대한 기술을 더 다듬어나가는 게 중요하다. 재판·의료·교육 등 활용 분야는 무궁무진하다. 사람이기에 하는 수많은 과오와 예상 못한 오류를 이 신기술은 많이 예방할 수 있다. 생성형 AI 기술의 본질은 경제·문화·교육·사회 활동에서 인간을 돕는 것이다. 실제로 그렇게 활용하는 분야가 대부분이다. 성과도 적지 않다. 이런 결실은 외면한 채 작은 부작용에만 주목한다면 인간의 기술 진보는 불가능해진다. 산업혁명기의 기계파괴운동 같은 어리석은 행동이 되풀이되어선 안 된다. 로봇과 기계화·자동화가 인간을 소외시키고 직업을 소멸한다고 반기술론자들은 주장하지만, 현실은 반대다. 서비스 부분의 3차 산업은 발전하고 경제는 더욱 고도화되고 있다. 딥페이크 방지법이나 처벌법을 따로 만들면 그 법에는 다른 무리한 규제까지 따라붙기 마련이다. 자연히 생성형 AI 기술을 제한하면서 관련 연구개발을 위축시킬 게 뻔하다. 스위프트 사례처럼 딥페이크 사진 등이 나오면 기존 법률 체제로도 대응이 가능하다. 손해배상을 청구하거나 허위물로 인한 명예훼손 처벌 법규가 이미 다 있다. 이런 판에 과잉 입법을 추가한다고 악의적 조작이 없어진다는 보장이 없다.
물론 저작권 보호처럼 손볼 부분은 많다. 허가나 승인 없는 타인의 지식재산권을 마구 이용하는 행위에 대한 가이드라인, AI 기술의 안전성과 윤리성에 대한 연구 업계의 자발적 노력은 두말할 필요도 없이 중요하다. 무조건 규제법만 만든다고 가짜 뉴스가 없어지지도 않을뿐더러 법만 잔뜩 만든다고 이상 사회가 되지도 않는다. 규제법의 이면, 부작용을 경계해야 한다.
![](https://img.hankyung.com/photo/202402/AA.30636779.1.jpg)
허원순 한국경제신문 수석논설위원 huhws@hankyung.com
관련뉴스