전문가들은 인간에 버금가는 범용 인공지능(AGI)을 오랫동안 꿈으로 여겼다. 완성된 이론도, AI를 구동할 에너지도 없다는 이유에서다. 미래학자 레이 커즈와일은 AI가 인간을 초월할 싱귤래리티(특이점)가 2045년 올 것이라고 했다. 이 특이점이 앞당겨질 것이라고 많은 사람이 말하기 시작한 게 요즘이다.
일련의 사건이 불을 지폈다. 오픈AI 대표 샘 올트먼 축출 미수 사태가 그 정점에 있다. 인류 공영에 초점을 맞춘 비영리 이사회가 올트먼의 ‘상업적 폭주’에 제동을 걸었다가 진압된 해프닝이다. 이 소용돌이 와중에 흘러나온 게 ‘Q스타’라는 프로젝트의 존재다. 데이터를 학습해야만 결과물을 내놓는 기존 인공지능이 아닌, 데이터 없이도 추론하는 초지능의 실마리를 오픈AI 연구진이 찾아냈다는 것이다. 사실이라면 인간계를 넘어선 AI만의 솔루션 창조가 가능하다는 얘기다. 오픈AI는 절대자의 반열에 오르게 된다.
주목할 것은 이 초기 AGI의 실재 여부와는 별개의 사태 전개다. ‘AGI에 대한 관심’이 폭발한 것이다. AI의 파멸적 부작용에 초점을 둔 두머(doomer)들만이 초지능의 조기 출현 가능성을 포착한 게 아니다. AI의 문명적 통제를 확신하는 부머(boomer)들도 조기 출현 가능성에 주목하고 있다. 엔비디아의 젠슨 황은 “5년 안에 AGI가 실현될 것”이라고 했다. 경쟁을 부추겨 자사 그래픽처리장치(GPU)를 팔아치우려는 선전용 낙관이라고 일축하긴 어렵다. 그 역시 AI 기술 진화를 정확하게 읽어야만 살아남을 위치에 있기 때문이다.
오픈AI 기술력의 핵 일리야 슈츠케버가 올트먼을 축출하는 이사회 의견에 한때 동조했다는 사실도 이 같은 전망을 그럴듯하게 만드는 장치다. 그의 스승이 AI의 폭주를 경계하며 구글에 사직서를 던진 제프리 힌턴 박사다. ‘두머’로 분류되는 이 두 천재가 발견한 ‘두려운 존재’의 실체가 초기 AGI라는 게 많은 이의 생각이다.
AGI의 흥행은 빅테크들의 패권 경쟁을 더욱 자극하는 모양새다. 잠재적 리스크를 해소하고 지지 기반을 다진 오픈AI는 브레이크 대신 액셀을 밟을 기세다. 구글이 사전 녹화까지 감행하며 멀티모달 AI 제미나이를 다급하게 발표한 것도 이런 분위기를 반영한다.
문제는 후발주자 한국이다. 폭풍우처럼 몰아치는 패권 경쟁에서 한국은 관전자로 멀찍이 물러나 있다. 기술에서도, 정책에서도 목소리는 들리지 않는다. 정부도 학계도 산업계도 ‘그들만의 혈투’를 논평하기 바쁘다.
이미 AI 강국들은 자신의 기술적 성취를 보호할 높다란 성을 쌓기 시작했다. 미국에 선수를 뺏긴 유럽이 이달 초 AI 규제법을 가장 먼저 도입했다. 오픈AI로 대표되는 미국 주도의 AI 기술 상용화에 저항하기 위해 규제의 칼을 빼든 것이다. 영국은 지난달 세계 각국 AI 기술자들을 긴급히 불러 모아 주도권 견제에 합류했다. ‘안전한 AI’를 내세웠지만, 사실상의 견제구라는 평가다. 중국은 진작부터 생성형 AI 심의 방침을 세워둔 터다.
미국은 양손에 떡을 쥔 형국이다. 이미 대통령 행정명령을 통해 일정 수준 이상의 AI 기술을 미국에서 활용할 때 정부 허가를 받도록 했다. 한 손에 기술을 또 다른 손에 규제를 들었다. 한 국내 AI 개발자는 “진짜 무서운 건 기술 개발에서 뒤처지는 것보다 국제 사회의 패권전쟁에서 소외되는 것”이라고 말했다. AI 빅뱅의 후폭풍은 이제부터 시작이다.
관련뉴스