하지만 호기심을 넘어 챗GPT를 진지하게 활용하려다 보면 미묘하게 틀린 대답을 하거나 때로는 ‘아무 말 대잔치’를 마주하게 되는데, 고급 용어로 ‘할루시네이션(hallucination·환각)’이라는 챗GPT의 오류를 쉽게 접하게 된다. 챗GPT는 웹에 있는 엄청난 문서를 학습하면서 인간의 말을 이해하게 되는데, 쉽게 이야기해 이 이해라는 것은 단어들의 관계, 문장들의 관계를 파악하는 것이다. “철수는 ( ) 몰래 빼먹었다”고 하면 ( ) 안에는 수업을, 곶감을 같은 단어가 온다는 것을 알게 되고, 또 그 뒤에 “그래서 선생님께 혼이 났다”와 같은 문장이 오는 것도 예측하는 것이다.
하지만 이는 정확한 정보를 외우는 것과는 거리가 있는데, 웹에 자주 등장하는 정보(문장)는 관계가 높은 것으로 보고 잘 외우지만 한두 번 본 문장은 반대로 잘 잊어버리게 된다. 지면의 한계로 기술적인 설명을 더 깊이 할 수는 없지만 대략은 그렇다는 거다. 그래서 정보(fact)를 찾는 건 당분간은 기존의 검색 서비스에 의존하는 게 낫다.
현재 챗GPT의 탁월함은 수없이 많은 문서를 보고, 언어의 방식을 이해했다는 점이다. 그래서 내용을 요약한다거나 논리를 파악하거나 하는 일을 아주 잘한다. 나는 챗GPT를 ‘언어계산기’라고 부르길 좋아하는데 계산기처럼 문장 안에서의 연산은 잘 해낸다. 철수의 딸은 희연이고 희연이의 엄마가 영희면, 영희의 남편은 철수라는 것을 계산기처럼 알아낸다.
막연한 경외는 두려움과 실수를 만들어 낸다. SF영화의 상상처럼 챗GPT가 인류를 지배하는 날이 오지 않을까 두려워할 수도 있지만, 계산기가 수학자를 대체하지도 수학을 없애지도 않았듯이 챗GPT도 우리가 사용하는 편리한 도구처럼 우리 곁에 있게 되지 않을까?
관련뉴스