최근 만난 한 의사는 챗GPT라는 인공지능(AI) 기반 챗봇이 의학계에서도 큰 파장을 일으키고 있다고 했다. 마치 인간처럼 생각하고 글로 표현하는 AI 챗봇은 기대 이상의 놀라운 능력을 보여준다. 하지만 AI가 가진 근본적인 한계와 부작용에 대한 우려도 커지고 있다.
또 AI가 학습한 데이터는 양이 방대하기 때문에 입력한 엔지니어조차 모두 사실인지를 파악할 수 없다. 학습한 데이터가 정확하지 않을 경우 이를 사실인 양 말하면 문제가 될 수밖에 없다. AI 기술의 중심인 실리콘밸리에서도 이 같은 우려가 연일 쏟아졌다. 실리콘밸리에서 주목받는 인물인 일론 머스크 테슬라 최고경영자(CEO)는 최근 “문명의 미래에 가장 큰 위협 중 하나는 AI”라고 경고했다. 그는 챗GPT를 개발한 오픈AI가 2015년 설립될 때 공동창업자 가운데 한 명이었다. 그는 “AI 안전성을 규제해야 한다”며 “규제로 인해 AI 발전 속도가 늦춰질 수도 있겠지만 그게 더 좋은 일이 될 수도 있다”고 강조했다. 안전성에 대한 규제 없이 AI를 무분별하게 개발하는 것을 막아야 한다는 얘기다.
챗GPT를 개발한 오픈AI 내부에서도 오용 위험성에 대한 경고가 나왔다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 “챗GPT도 다른 AI 챗봇과 마찬가지로 사실을 지어낼 수 있다는 문제점을 안고 있다”며 “AI가 남용되거나 오용될 수 있다”고 인정했다.
AI 챗봇은 다양한 분야에서 일하는 방식의 변화를 불러올 기술적 진보임이 분명하다. 대단한 파괴력을 갖고 있음을 입증하고 있다. 하지만 머스크 등이 언급한 것처럼 아직 윤리 문제를 포함한 부작용에 대한 규제 논의는 걸음마 수준이다.
향후 AI 기술과 서비스가 발전하면서 이 같은 부작용은 더욱 크게 불거질 가능성이 높다. 이를 예방하기 위해 “사회가 더 많이 개입해야 한다”는 무라티 CTO의 발언을 곱씹어볼 필요가 있다.
관련뉴스