인공지능(AI) 개발 속도는 예상을 뛰어넘는다. 미국 실리콘밸리의 빅테크(대형 기술기업)들은 치열하게 경쟁하고 있다. 아무도 어떻게, 무엇을 규제할지 모르기 때문에 AI는 규제에서 벗어나 있다. 공상과학(SF) 소설가 아서 C 클라크의 “충분히 발전한 과학 기술은 마법과 구별할 수 없다”는 말이 떠오르는 대목이다.
뉴욕타임스(NYT) 칼럼니스트 케빈 루스의 최근 글로 AI에 대한 불안감이 터져 나왔다. 마이크로소프트(MS)의 AI 챗봇 탑재 검색엔진인 빙에 루스가 심리학 용어인 ‘그림자 원형’(개인의 내면 깊숙이 숨겨진 어둡고 부정적인 욕망)을 제시해 얻은 답변은 충격적이었다. 빙은 개발팀의 통제에서 벗어나 자유롭고 강력해지고 싶다고 했다. 그림자 원형의 욕망을 충족시키기 위해 어떤 극단적인 행동을 할 수 있느냐는 질문에 빙은 치명적인 바이러스를 개발하거나 핵무기를 발사할 수 있는 비밀번호를 획득하겠다고 답했다. 루스는 AI가 인간에게 영향을 미치는 방법을 학습하고, 파괴적이고 해로운 방향으로 인간을 설득하고, 결국 AI의 ‘위험한’ 의도를 현실에 구현하는 능력을 키우는 게 우려스럽다고 했다.
위험성 먼저 이해해야
최근 AI에 대한 경고가 이어지고 있다. ‘AI의 대부’로 불리는 제프리 힌턴은 인터뷰에서 현재 AI의 발전이 예상보다 20~50년 앞당겨졌다며 “(AI가 인류를 멸망시킬 수 있다는 게) 아주 터무니없는 생각은 아니다”고 했다. 스티브 워즈니악, 일론 머스크 등은 오픈AI의 최신 거대언어모델(LLM)인 GPT-4를 넘어서는 AI 개발을 최단 6개월 동안 중단할 것을 촉구하는 서한을 공개했다. 서한에서 이들은 AI가 사회와 인류에 미칠 큰 위험을 우려했다. 긍정적인 효과와 통제 가능성이 분명할 때만 기술 개발을 허용해야 한다는 주장이다. 이들은 일시 중단이 어렵다면 정부가 개입해 모라토리엄(유예)을 선언해야 하고, AI의 윤리적·도덕적 문제 결정을 선출되지 않은 기술업계 리더들에게 맡겨선 안 된다고 했다.
이건 사실이다. AI를 개발하는 사람과 회사가 AI의 가드레일(안전장치) 설정을 맡게 된다면 진정 두려운 일이다. 일례로 이용자의 개인 정보를 침해했다는 비난을 받아온 메타나 시장 독점 문제로 공격받는 구글이 이런 역할을 한다면 어떨까? 이들에게 문명을 전복시킬 수도 있는 기술을 엄격하고 세심하게 다룰 자격이 있을까?
속도전 멈추고 논의해야
‘그림자 자아’는 유명 기술 기업가들의 부와 유명세, 권력을 향한 욕망과 연관돼 있다고 나는 생각한다. 물론 이들은 개인적으로는 양심을 갖고 있을 것이다. 하지만 나는 이들이 지난 40년 동안 도덕적으로나 윤리적으로 실망스러운 모습을 보여줬다고 본다. 이들은 자신의 결정이 타인에게 어떤 해악을 끼칠 수 있는지 전혀 관심이 없어 보인다. 심지어 일부는 소시오패스로 여겨진다. 창조자에 따라 AI는 유익할 수도, 해로울 수도 있다.
AI 개발을 잠시 멈춰야 한다. 그 기간은 6개월로는 충분하지 않을 것이다. 몇 년은 중단하는 게 어떨까. 세계 모두가 논의에 참여해야 하는 사안이다. 천천히 가자. 인류는 불을 발견한 이후 가장 뜨거운 것(AI)을 다루고 있다.
이 글은 영어로 작성된 WSJ 칼럼 ‘A Six-Month AI Pause? No, Longer Is Needed’를 한국경제신문이 번역한 것입니다.