구글이 인공지능(AI) 기술 개발에 발맞춰 윤리 문제에 대한 연구를 강화하기로 했다.
월스트리트저널(WSJ)은 11일(현지시간) 매리언 크로크 구글 엔지니어링 담당 부사장이 WSJ 주최 행사에서 AI 윤리 담당 연구진 규모를 두 배로 늘리겠다는 방침을 밝혔다고 보도했다.
AI 윤리란 인공지능이 윤리적으로 활용되고 인간과 공존할 수 있도록 개발·운용하는 것을 의미한다. 한국에서는 최근 '이루다'라는 챗봇이 혐오성 발언을 해 논란이 되며 AI 윤리에 대한 논란이 불거졌다.
현재 구글에서 AI의 윤리적 책임 문제를 연구하는 인원은 200명이다. 연구진 규모가 두 배가 된다면 400명이 AI의 윤리를 연구하게 된다. 이와 함께 구글은 AI의 능력이 고도화되면서 오히려 인류에게 인종 차별 등 각종 해악을 끼칠 가능성을 차단하기 위해 프로그램 검증팀에 대한 예산 지원도 대폭 늘리기로 했다.
크로크 부사장은 "AI 기술 개발과 전개를 책임있는 방식으로 진행하는 것은 기업에도 근본적인 문제"라면서 "윤리적인 방식으로 진행되지 않으면 기업 브랜드에 심각한 손상을 준다"고 경고했다.
크로크 부사장은 구글내에서 보기 드문 흑인 고위 간부 가운데 한 명이다. 특히 구글내 흑인 여성 비율이 1.2%에 불과한 가운데 유리 천장을 뚫고 고위경영진에 합류했다.
구글의 이 같은 방침은 최근 각종 정보기술(IT) 분야에서 AI의 윤리 문제가 부각된 데 따른 것으로 보인다. 앞서 IBM은 구조적 인종 차별 문제를 이유로 얼굴인식 사업에서 철수했다. 얼굴인식 기술은 AI를 이용해 얼굴 생김새로 사람의 신원을 파악하는 기술이다.
범죄자 식별 등에 쓰일 수 있지만, 이 기술에 인종·성별에 따른 편견이 심겨 있다는 우려도 크다. 흑인이나 아시아인, 여성 등 백인 남성이 아닌 사람은 신원을 잘못 파악할 가능성이 크다는 것.
마이크로소프트는 얼굴인식 기술이 시민사회에 대한 감시에 악용될 수 있다는 우려에 따라 경찰 등 법 집행기관에 기술 판매를 하지 않겠다는 방침을 밝히기도 했다.
강경주 기자 qurasoha@hankyung.com
관련뉴스