비윤리적 답변을 피하기 위한 생성형 인공지능(AI) 서비스의 시스템 때문에 특정 이름을 입력하면 먹통이 되는 촌극이 벌어졌다.
15일 업계에 따르면 구글의 AI 챗봇인 ‘바드’의 질문 창에 ‘김지현’이라는 단어가 들어가면 적절한 대답이 나오지 않고 있다.
어떤 질문을 하더라도 ‘김지현’이 포함되면 “저는 언어 모델일 뿐이라서 그것을 도와드릴 수가 없습니다”라는 답을 내놓는다. 김지현을 한글이 아닌 알파벳으로 입력하면 적절한 대답을 출력한다.
전문가들은 바드의 부적절한 답변을 막는 과정에서 이러한 현상이 발생한 것으로 보고 있다. ‘김지현’이 시스템에 의해 금지어로 분류됐을 것이라는 추측이다. 한 업계 관계자는 “모델의 문제라기보다는 서비스의 문제일 것”이라고 분석했다. 반복적으로 같은 대답을 출력하는 것이 ‘먹통’이 아니라 의도적인 답변이라는 설명이다.
전문가들은 ‘김지현’이 어떻게 금지어 목록에 포함됐는지 쉽게 알 수 없다는 반응을 보였다. 바드와 같은 서비스의 금지어는 알고리즘을 통해 자동으로 정해지기 때문이다. 실제로 바드는 욕설이나 외설적인 단어가 포함된 명령어를 입력하면 ‘김지현’이 포함된 것과 같은 반응을 보인다.
비슷한 문제가 이미 해외 커뮤니티에서는 작년부터 제기됐다. 윤리적 문제가 전혀 없는 코드만을 포함한 프롬프트에도 답변을 거부하는 사례 등이 있었다. 타사의 생성 AI 서비스에 비해 바드의 안전 필터 기준이 강하다는 의견이다.
이 같은 문제를 막기 위해선 AI 서비스의 고도화에 맞춰 윤리 정책과 절차를 만들어야 한다는 지적이 나온다. 최병호 고려대 AI연구소 교수는 “이번 문제는 소셜미디어에서 문제없는 게시물을 알고리즘이 유해 게시물로 분류하는 것과 비슷하다”며 “피드백을 반영해 윤리성 분류를 수정할 수 있게 하는 정책을 고민할 필요가 있다”고 말했다.
황동진 기자 radhwang@hankyung.com
관련뉴스