사회 약자 몰래 차별 방지…알고리즘 설명 의무 등 포함
(서울=연합뉴스) 김태균 기자 = 카카오가 국내 인공지능(AI) 개발사 중 처음으로 AI 윤리규범을 선보였다.
카카오는 31일 이런 내용의 '카카오 알고리즘(AI 전산 논리체제) 윤리 헌장'을 발표했다고 밝혔다.
윤리 헌장은 AI 기술의 지향점과 사회 계층 등에 관한 의도적 차별 방지, 데이터 수집 관리 원칙, 알고리즘의 설명 의무 등을 담고 있다.
헌장은 AI 기술의 목표를 '인류의 편익과 행복 추구'로 정했고, AI 데이터 분석을 통해 의도적으로 사회 약자를 차별하지 않도록 경계해야 한다고 명시했다.
사생활 침해 우려가 계속 제기되는 AI의 학습용 데이터(웹활동 기록, 음성 등)는 사회 윤리에 근거해 수집·분석·활용한다고 강조했다.
알고리즘은 특정 개인이나 세력에 의해 자의적으로 훼손되거나 왜곡되지 않도록 해야 하며, 기업의 경쟁력을 훼손하지 않는 범위 내에서 알고리즘의 내용을 대중에게 성실히 설명해 투명성을 보장하자는 원칙도 포함했다.
이번 헌장은 카카오 웹사이트에 게재됐고 이날 발간된 온라인 매거진인 '카카오 AI 리포트' 1월호에는 헌장의 해설(해제)이 실렸다.
임지훈 카카오 대표는 "카카오만의 원칙과 철학을 고려해 알고리즘 개발 및 운영에 관한 의지를 표명했다"며 "사회가 요구하는 윤리 의식을 갖춘 AI기업이 되기 위해 전 구성원이 꾸준한 노력을 기울이겠다"고 말했다.
IT(정보기술) 업계에서는 최근 수년 사이 AI 기술이 비약적으로 발전하면서 AI에 대한 윤리 규약이 선포돼야 한다는 지적이 잇따랐다.
AI가 다른 기술과 달리 대중이 이해하기가 극히 어렵고 자율학습 등 특성으로 쉽게 인간의 통제를 벗어날 우려가 있어 연구개발(R&D) 단계부터 사회적·도덕적 해악을 방지할 장치가 필요하다는 취지다.
국외에선 구글이 2014년 AI 윤리위원회를 구성한다고 밝혀 관심을 끌었다.
tae@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스