첫째, 오픈AI의 ‘챗GPT’에서 시작된 AI 능력에 대한 과대평가가 자연어 분야에서 이제는 전 분야로 급속도로 퍼지는 현상을 확인한 사례다. 전 세계 언론이 전문가 확인도 없이 이 뉴스를 퍼뜨린 데서 우리가 얼마나 AI의 ‘초인간’ 능력을 두려워하는지를 알 수 있다.
둘째, 공군 관계자 한 사람의 해프닝으로 일단락되긴 했지만 그의 의도는 AI를 잘못 제작·디자인·구현하면 이런 무책임하고 위험한 AI가 충분히 만들어질 수 있음을 경고하는 것이었다. 윤리와 신뢰 기반의 AI 기술 개발은 살상용에 쓰일 수 있는 무기체계와 자율주행, 자율비행에서 더 필요하고 더 어렵다. 한 번의 실수가 대량 살상으로 이어질 수 있기 때문이다.
셋째, 해밀턴 대령이 발표한 ‘인간의 명령을 거역’하고 ‘명령자를 살상’하는 AI의 예는 심층신경망 강화 학습이라는 기술을 통해 구현은 가능하지만, 실제로 쓰이기에는 너무 위험천만하다. 간과하지 말아야 할 점은 완벽하게 제어가 불가능한 AI 기술은 우리에게도 적에게도 도움이 되지 않는다는 것이다. 만약 무책임하고 제어가 안 되는 AI를 중국이나 북한에서 만들었다고 가정했을 때 그 AI가 북한 같은 나라들이 인류에게 해가 된다고 ‘스스로’ 판단해 명령을 안 따르고 그들의 무기 체계나 국가를 파괴할 수도 있는 일이다.
이번 해프닝의 결론은 신뢰와 윤리 기반의 AI 기술은 국방에서 더없이 필요한 분야지만, 챗GPT의 어이없는 실수를 보면 알 수 있듯 아직 갈 길이 멀다. 특히 군 무기체계에 필요하고, 현재 진행 중인 기술 개발은 초거대 모델과는 상당히 다른 방향으로 가야 함을 인지해야겠다.
관련뉴스