인공지능이 현실세계를 학습하는 방식을 이해하면 휴머노이드 로봇의 ‘디스토피아’ 예고는 놀랍지 않다. 인공지능은 현실세계에서 보고, 읽고, 들은 정보(데이터)를 사람이 정한 방법(모델)대로 공부한다. 일상에서 구사하는 언어는 인간 의식의 흐름을 지배한다. 인공지능도 마찬가지다. 인공지능은 서비스 제공자인 기업이 제공하는 데이터로 학습한다.
“챗GPT가 제공하는 정보가 거짓일 수 있다는 점을 알지 못했다.” 지난 3월 미국 뉴욕에서 한 변호사가 챗GPT를 ‘무비판적’으로 수용하다가 법원 청문회에 회부될 상황에 놓인 뒤에 한 말이다. 주인공은 30년차 변호사 스티븐 슈워츠. 그는 항공사를 상대로 소송을 제기한 원고의 변호를 맡아 재판부에 의견서를 제출했다. 해당 문서에는 ‘마르티네즈 대 델타항공’, ‘지허먼 대 대한항공’, ‘바르게세 대 중국 남방항공’ 등 소송과 관련된 유사 판례 6건이 포함됐다.
하지만 재판 과정에서 그가 인용한 판례의 사건번호는 존재하지 않거나, 연관성이 없는 사건으로 드러났다. 슈워츠는 문제가 된 판례가 챗GPT를 인용한 것임을 시인했다. 그는 ‘업무 보완을 위해 챗GPT에 자문을 구했는데, 이 같은 일이 벌어진 것에 유감’이라며, 차후에는 챗GPT를 활용하지 않겠다며 법원에 선처를 구했다.
‘생각하지 않는 사람’이 늘고 있다. 효율적이고 편리하게 정보를 제공하는 서비스에 익숙해지면서다. 인공지능 스타트업을 운영하는 필자가 보기에 ‘생성형 인공지능’은 도래하지 않은 잠재적인 위협이다. 이보다 더 시급한 현안은 ‘비판적인 사고 없이 무의식적’으로 콘텐츠를 수용하는 경향성이 강화되고 있다는 점이다. 추천 알고리즘이 제공하는 콘텐츠를 무의식적으로 수용하면서 가짜뉴스에 현혹되고, 개인 성향에 따라 확증편향성이 강화돼 공동체 양분 현상이 심화되는 모습은 소셜미디어의 확장과 함께 공동체가 목도한 현상이다. 생성형 인공지능이 보편화될수록 인공지능 기술이 제공하는 정보를 무의식적으로 수용하려는 경향성은 더욱 강해질 것이다. 인공지능 기술 관련 테크기업과 이를 활용한 서비스 제공자의 사회적 책임과 함께, 기술을 바람직하게 활용할 ‘소비자’들에 대한 논의도 필요한 시점이다.
관련뉴스