이들은 공동서한에서 킬러 로봇 개발이 빠른 속도로 진전되고 있지만 이를 금지하기 위한 움직임은 매우 천천히 이뤄지고 있다고 우려했다. 머스크 등은 서한에서 “(AI를 활용한 무기가) 개발되고 나면 사람들이 이해하는 것보다 훨씬 큰 규모와 빠른 속도로 무력 충돌이 벌어질 것”이라며 “테러에 이용될 가능성도 있다”고 경고했다. 이들은 화학무기에 미리 대처하지 못한 과거를 반복해선 안 된다고 덧붙였다. 이들 기업이 킬러 로봇 금지와 관련해 공동 입장을 내놓은 것은 이번이 처음이다.
이번 공동서한을 주도한 AI 전문가 토비 월시 호주 뉴사우스웨일스대 교수는 “기술 개발이 진행될수록 군으로부터 이들 ‘신형 장난감’을 되찾아오기가 더 어려워진다”고 말했다. 그는 현재 개발 중인 킬러 로봇의 예로 영국의 ‘타라니스’ 드론, 미 해군의 자율운항 무인 함정 ‘시 헌터’, 보잉의 무인 잠수정 ‘에코 보이저’, 러시아 무인 탱크 ‘MK-25’, 삼성의 ‘센트리 로봇’을 꼽았다.
월시 교수는 2년 전 국제 AI 콘퍼런스에서 물리학자 스티븐 호킹, 애플 공동창업자 스티브 워즈니악 등과 함께 공동서한을 발표해 AI 무기에 대한 유엔 차원의 공식 논의를 촉발했다.
추가영 기자 gychu@hankyung.com
관련뉴스