언론정보학보 논문
(서울=연합뉴스) 이정현 기자 = 믿고 싶은 것만 믿는 '확증 편향'이 불러온 양극화 시대, 인공지능(AI)을 활용한 팩트체크가 하나의 해결책이 될 수도 있다는 연구 결과가 나왔다.
28일 한림대 김연주 연구교수와 노기영 특훈교수가 한국언론정보학보에 낸 논문 'AI 팩트체크는 편향된 정보처리에 대한 해답이 될 수 있는가?'에 따르면 AI 팩트체크는 확증 편향을 약화하는 중요한 도구로 기능할 가능성을 보여줬다.
연구진은 지난 7월 전국 성인 960명을 대상으로 온라인 실험을 했다.
실험 방식은 AI·인간 전문가·크라우드 소싱(다수 의견을 모으는 방식)에 의한 팩트체크, 그리고 '보편적 의료 서비스'에 대한 뉴스 보도가 피실험자의 신념과 일치하는지 여부를 고리로 혼합 설계됐다.
먼저 인간 전문가의 팩트체크 메시지는 큰 변화를 주지는 못하는 것(연구 결과 뉴스 신뢰값 0.31)으로 나타났다.
기존 신념과 일치하지 않는 정보를 반박하는 인간 전문가의 팩트체크 메시지를 읽은 참가자들은, 신념과 일치하는 정보를 반박하는 메시지를 읽은 사람들보다 뉴스에 대한 신뢰도가 낮게 나타났다.
즉, 사람들이 자신의 신념에 맞는 정보를 반박하는 팩트체크 메시지를 접하면 기존 정보를 더 신뢰한다는 뜻이다.
반면 AI 팩트체크 메시지를 읽었을 경우 신념 일치 여부에 따른 뉴스 신뢰도 차이가 사라졌다(뉴스 신뢰 값 -0.41).
팩트체크 출처가 AI일 때는 기존 신념과 일치하지 않는 정보를 반박하는 메시지를 읽은 사람들과 신념 일치 정보를 반박하는 메시지를 읽은 사람들 간 뉴스에 대한 신뢰도 차이가 나타나지 않았다. AI 팩트체크가 확증 편향을 줄인 셈이다.
연구진은 "AI 기반 팩트체크가 인간의 주관적 판단을 배제한 객관적 정보로 인식될 가능성이 있다"며 "AI 팩트체크를 접한 사람들은 기존 신념과 일치하지 않는 정보라 할지라도 더 쉽게 수용할 수 있었다"고 분석했다.
AI 팩트체크 실제 사례로는 기계 학습 알고리즘을 사용해 뉴스와 소셜 미디어 콘텐츠를 분석하고, 허위 정보 가능성이 높은 콘텐츠를 자동으로 플래그 처리해 경고해주는 구글의 '클레임리뷰' 등이 있다.
한편, 팩트체크 출처가 크라우드 소싱일 때도 인간 전문가 집단일 때보다는 신념 일치 여부에 따른 뉴스 신뢰도 차이가 줄었다(뉴스 신뢰 값 -0.38).
또한 개인의 디지털 리터러시 수준이 높을수록 AI 팩트체크 메시지를 신뢰하면서 기존 신념과 일치하지 않는 정보를 더 수용하는 경향이 나타났다.
lisa@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스