"저는 언어모델일 뿐입니다"…'김지현'에 답변 피하는 구글 '바드'

입력 2024-01-15 16:30   수정 2024-01-15 16:42



비윤리적 답변을 피하기 위한 생성형 인공지능(AI) 서비스의 시스템 때문에 특정 이름을 입력하면 먹통이 되는 촌극이 벌어졌다.

15일 업계에 따르면 구글의 AI 챗봇인 ‘바드’의 질문 창에 ‘김지현’이라는 단어가 들어가면 적절한 대답이 나오지 않고 있다.

어떤 질문을 하더라도 ‘김지현’이 포함되면 “저는 언어 모델일 뿐이라서 그것을 도와드릴 수가 없습니다”라는 답을 내놓는다. 김지현을 한글이 아닌 알파벳으로 입력하면 적절한 대답을 출력한다.

전문가들은 바드의 부적절한 답변을 막는 과정에서 이러한 현상이 발생한 것으로 보고 있다. ‘김지현’이 시스템에 의해 금지어로 분류됐을 것이라는 추측이다. 한 업계 관계자는 “모델의 문제라기보다는 서비스의 문제일 것”이라고 분석했다. 반복적으로 같은 대답을 출력하는 것이 ‘먹통’이 아니라 의도적인 답변이라는 설명이다.

전문가들은 ‘김지현’이 어떻게 금지어 목록에 포함됐는지 쉽게 알 수 없다는 반응을 보였다. 바드와 같은 서비스의 금지어는 알고리즘을 통해 자동으로 정해지기 때문이다. 실제로 바드는 욕설이나 외설적인 단어가 포함된 명령어를 입력하면 ‘김지현’이 포함된 것과 같은 반응을 보인다.

비슷한 문제가 이미 해외 커뮤니티에서는 작년부터 제기됐다. 윤리적 문제가 전혀 없는 코드만을 포함한 프롬프트에도 답변을 거부하는 사례 등이 있었다. 타사의 생성 AI 서비스에 비해 바드의 안전 필터 기준이 강하다는 의견이다.

이 같은 문제를 막기 위해선 AI 서비스의 고도화에 맞춰 윤리 정책과 절차를 만들어야 한다는 지적이 나온다. 최병호 고려대 AI연구소 교수는 “이번 문제는 소셜미디어에서 문제없는 게시물을 알고리즘이 유해 게시물로 분류하는 것과 비슷하다”며 “피드백을 반영해 윤리성 분류를 수정할 수 있게 하는 정책을 고민할 필요가 있다”고 말했다.

황동진 기자 radhwang@hankyung.com


관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!