(서울=연합뉴스) 문정식 기자 = 페이스북이 지난 3분기에 무려 870만장에 달하는 어린이 누드 사진을 적발, 삭제한 것으로 밝혀졌다.
페이스북의 글로벌 안전 책임자인 앤티건 데이비스는 24일 로이터 통신 인터뷰에서 최신 소포트웨어를 이용해 지난 3개월 동안 이처럼 많은 어린이 누드 사진을 자동으로 걸러낼 수 있었다고 밝혔다.
페이스북은 지난해부터 기계학습 툴(도구)를 도입해 성적인 의도로 어린이를 노출시킨 사진들에 대한 단속 노력을 한층 강화하고 있는 상태다.
데이비스는 인터뷰에서 페이스북이 성적 대상으로 삼기 위해 어린이들에 접근하는 사용자들을 적발하는 유사한 시스템도 동원되고 있다고 소개했다. 새로운 필터링 시스템이 활용되고 있다는 사실은 지금까지 외부에 공개되지 않고 있었다.
데이비스는 이 시스템이 채용한 기계학습 툴은 내부의 평가위원들에게 문제가 있는 콘텐츠를 더욱 효율적으로 제시하고 있다고 말하고 인스타그램 앱에도 이를 적용하는 방안을 모색 중이라고 밝혔다.
신종 시스템은 얼마나 많은 사용자들로부터 차단을 당하는지, 해당 사용자가 많은 어린이들과의 접촉을 서두르고 있는지 등을 척도로 삼아 어린이 누드 사진을 평가한다.
페이스북은 새 시스템이 도입되기 이전에는 주로 사용자들이나 성인 누드 필터링 도구를 통해 어린이 누드 사진을 찾아내는 방식을 취하고 있었다.
올해 1분기에 성행위, 성인 누드를 문제삼아 페이스북이 일방적으로 삭제한 포스팅과 코멘트는 무려 2천100만건에 이른다. 이 가운데는 어린이누드 사진도 일부 포함돼 있을 것으로 보이지만 페이스북이 구체적 수치를 밝힌 적은 없다.
페이스북은 수년전부터 사용자가 선의로 가벼운 옷차림의 어린이가 등장하는 가족사진을 울리는 경우에도 타인에게 악용될 소지가 있다는 우려로 차단하고 있었다.
신종 필터링 시스템은 성인 누드와 가벼운 옷차림의 어린이 사진들을 평가하는 과정에서 능력을 개선, 더욱 많은 어린이 누드 사진을 삭제할 수 있게 됐다는 것이 페이스북 측의 설명이다.
이 시스템은 예술, 역사 부문의 콘텐츠에 대해서는 예외적 기준을 적용하고 있다. 베트남전 당시 벌거벗은 현지 여자 어린이가 네이팜탄의 공격을 피해 달아나는 퓰리처상 수상 사진이 그 실례다.
하지만 뉴스통신사들과 광고회사들로부터 페이스북의 자동 필터링 시스템이 정상적인 콘텐츠도 오인, 차단하고 있다는 불만이 쏟아지고 있는 데서 보듯 기계학습 툴이 완벽한 것은 아니라고 로이터 통신은 지적했다.
jsmoon@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스