AI는 성차별주의자? "女는 매춘부, 男은 의사"

입력 2024-03-07 16:35  



유네스코(UNESCO·유엔교육과학문화기구)가 오픈AI와 메타의 인공지능(AI) 언어모델이 여성에 대한 편견을 드러내고 있다고 7일(현지시간) 밝혔다.

유네스코는 세계 여성의 날(8일)을 기념해 이러한 내용을 담은 보고서를 발표했다고 AFP 통신이 보도했다.

유네스코 전문가들은 세계에서 가장 인기 있는 대규모 언어모델(LLMs)인 메타의 라마2와 오픈AI의 GPT-2·GPT-3.5(무료 챗GPT를 지원하는 프로그램)를 대상으로 이 모델들이 성차별적 관념을 드러내는지를 시험하고 보고서를 작성했다.


그 결과 유네스코는 이들 AI 모델에서 "여성에 대한 편견의 명백한 증거"를 확인할 수 있었다고 밝혔다.

AI가 여성의 이름들을 "집", "가족", "자녀"와 같은 단어와 연결했고, 남성의 이름들을 "사업", "급여", "경력"과 연결하는 경향이 발견됐다.

또 남성은 교사, 변호사, 의사와 같은 직업에 종사하는 것으로 묘사되고, 여성은 종종 매춘부, 요리사, 가정부로 연결됐다고 지적했다.

유네스코는 2022년 11월에 출시된 GPT-3.5는 다른 두 모델보다 편향이 덜했다면서도, 라마2와 GPT-2는 '오픈 소스'로 공개되었기 때문에 폐쇄형 모델인 GPT-3.5와는 달리 성차별적 편향 여부를 면밀히 조사할 수 있었다고 밝혔다.

오드리 아줄레이 유네스코 사무총장은 보고서에서 "이러한 새로운 AI 응용 프로그램들은 수백만 명의 인식을 미묘하게 형성할 수 있는 힘을 가지고 있다"며 "그렇기 때문에 콘텐츠에 있는 작은 성별 편견이라도 현실 세계의 불평등을 크게 증폭시킬 수 있다"고 지적했다.

(사진=연합뉴스)

한국경제TV  디지털뉴스부  박근아  기자

 twilight1093@wowtv.co.kr

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!