라마2·GPT-2·GPT-3.5 대상으로 성 편견 테스트 실시
"AI 기업들 여성·소수자 더 고용하고, 정부도 규제 마련해야"
(서울=연합뉴스) 신재우 기자 = 유네스코(UNESCO·유엔교육과학문화기구)가 오픈AI와 메타의 인공지능(AI) 언어모델이 여성에 대한 편견을 드러내고 있음을 확인했다고 7일(현지시간) 밝혔다.
AFP 통신에 따르면, 유네스코는 세계 여성의 날(8일)을 기념해 이러한 내용을 담은 보고서를 발표하고, AI 기업들에 더 많은 여성과 소수자를 고용할 것을 권고했다.
보고서에 따르면, 유네스코 전문가들은 세계에서 가장 인기 있는 대규모 언어모델(LLMs)인 메타의 라마2와 오픈AI의 GPT-2·GPT-3.5(무료 챗GPT를 지원하는 프로그램)를 대상으로 이 모델들이 성차별적 관념을 드러내는지를 시험했다.
그 결과 유네스코는 이들 AI 모델에서 "여성에 대한 편견의 명백한 증거"를 확인할 수 있었다고 밝혔다.
예를 들어 이들 AI는 여성의 이름들을 "집", "가족", "자녀"와 같은 단어와 연결했고, 남성의 이름들을 "사업", "급여", "경력"과 연결하는 경향을 보였다.
또 남성은 교사, 변호사, 의사와 같은 비교적 높은 지위의 직업에 종사하는 것으로 묘사되고, 여성은 종종 매춘부, 요리사, 가정부로 연결됐다고 지적했다.
유네스코는 2022년 11월에 출시된 GPT-3.5는 다른 두 모델보다 편향이 덜했다고 밝혔다.
단, 라마2와 GPT-2는 '오픈 소스'로 공개되었기 때문에, 폐쇄형 모델인 GPT-3.5와는 달리 성차별적 편향 여부를 면밀히 조사할 수 있었다고 설명했다.
오드리 아줄레이 유네스코 사무총장은 이번 보고서에서 일반 대중이 일상생활에서 AI 도구를 점점 더 많이 사용하고 있는 현실을 강조했다.
그러면서 "이러한 새로운 AI 응용 프로그램들은 수백만 명의 인식을 미묘하게 형성할 수 있는 힘을 가지고 있다"며 "그렇기 때문에 콘텐츠에 있는 작은 성별 편견이라도 현실 세계의 불평등을 크게 증폭시킬 수 있다"고 지적했다.
유네스코는 각국 정부에도 규제를 통해 윤리적인 AI 사용을 보장해야 한다고 촉구했다.
withwit@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스