CNBC는 17일(현지시간) ‘기술 낙관론자와 비관론자가 위험한 AI 논쟁을 벌이고 있다’는 내용의 기사를 통해 이렇게 보도했다. 이 매체는 오픈AI 이사회의 샘 올트먼 CEO 해임 사태로 부머(낙관론자)와 두머(비관론자) 이념 갈등이 불거진 점을 언급하면서 내년에도 급속한 혁신을 수용하는 쪽과 위험 때문에 속도를 늦추기를 원하는 이들의 논쟁이 이어질 것으로 전망했다.
부머와 두머 간 대결은 ‘e/acc’(효과적 가속주의)와 ‘Decl’(감속주의) 논쟁으로도 알려져 있다. 효과적 가속주의는 물리학자 길리엄 베르동이 소셜미디어 X(옛 트위터) 계정에서 시작한 주장이다. 현재 일론 머스크와 올트먼 등 실리콘밸리 거물을 포함한 7만 명의 팔로어를 거느리고 있다. 실리콘밸리 굴지의 벤처캐피털 안데르센 호로비츠의 창업자 마크 앤드리슨은 지난 10월 베르동을 “기술 낙관주의의 수호자”라고 부르기도 했다. 앤드리슨은 ‘기술 낙천주의 선언문’을 통해 “AI의 감속은 생명을 앗아갈 것”이라고도 주장했다.
효과적 가속주의 대척점에 있는 감속주의자들은 AI의 부작용을 우려하며 개발 속도를 조절해야 한다고 주장한다. 3월 스티브 워즈니악 등 여러 기업인과 학자들은 ‘AI 시스템 개발을 일시적으로 중지하자’는 공개서한을 내기도 했다.
업계가 내세우는 대안은 AI 얼라인먼트다. 인간이 원하는 작업을 AI가 수행하고, 원하지 않는 작업을 수행하지 않도록 조정하는 것을 뜻하는 용어로 기술을 적극적으로 개발하되 보다 안전하고 책임 있는 AI를 만들기 위한 노력을 이어가야 한다는 뜻이 담겨 있다.
아마존웹서비스(AWS)가 의뢰하고 모닝컨설트가 시행한 연구에 따르면 AI 비즈니스 리더 중 59%가 ‘책임 있는 AI’ 기조를 채용하겠다는 뜻을 밝혔다. 주요 빅테크에서도 이런 움직임이 감지된다. 오픈AI는 인간이 의도한 목표와 윤리적 원칙에 맞게 AI를 조정하는 ‘AI 초정렬 대응팀’을 운영하고 있다. 이 팀은 최근 대규모언어모델(LLM)로 이보다 더 강력한 LLM을 감독할 수 있는 기술을 발표했다. 그러면서 이것이 인간이 초지능 시스템을 감독할 수 있는 방법을 알아내는 단초가 될 수 있다고 설명했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
관련뉴스