AI는 데이터를 처리하고 복잡한 알고리즘을 통해 결정을 내릴 수 있지만, 그 과정에서 인간처럼 무엇을 느끼는지에 대한 주관적인 경험은 없다. 삶의 유한성에 관한 고민이 없고, 따라서 내재적 의지에 의한 도덕적 판단을 할 수 없다. 특정 상황에서 적절한 행동을 할 수 있지만, 왜 그런 행동을 하는지에 대한 자각이나 자기 인식, 자기 성찰은 없다.
AI 내부의 목표가 사람의 목표와 대치될 위험에 주목해야 한다. 완전무결하게 목표와 제약 조건을 줬다는 보장이 없을 때 위험한 명령이나 액션은 사람이 최종적으로 결정하는 구조가 필요하다. AI 자체의 문제라기보다는 사람과 시스템의 문제다. AI가 인류 생존을 위협하는 공상과학(SF) 영화 같은 예측보다 AI를 악의적으로 사용하는 사람이나 기업, 집단을 어떻게 막을 것인가가 중요하다.
AI는 완전하지는 않지만 어떤 분야에선 인간보다 일을 잘할 수 있을 것이다. 자동차를 운전하고 비행기를 조종하듯 우리가 그것을 잘 활용하기만 하면 된다. AI도 우리가 실현할 수 없는 어떤 한계점이 분명 존재할 것이다. 눈 깜짝할 새에 런던이나 뉴욕으로 이동하는 궁극의 이동 기술이 이뤄질 수 없듯이, 완전한 AI를 개발하는 일도 어렵다.
초고성능 범용인공지능(AGI)이 나온다면, 어릴 적부터 꿈꿔온 ‘한 알만 먹으면 온종일 배도 안 고프고 영양도 달성하는’ 알약을 대량 생산하는 방법을 알려줄까? 아마도 AGI가 방법을 알려주고 그것을 실행했더니 그 알약이 정말 실현되는 경우, AGI가 “그건 못하겠는 걸”이라며 그 방법을 개발하기 어렵다고 고백하는 경우, AGI가 “그런 알약은 제조가 불가능해”라면서 불가능한 이유를 밝혀주는 세 가지 경우를 떠올릴 수 있을 것이다.
오직 첫 번째만 우리가 AGI로 부를 것인가? 아니면 두 번째도 AGI라고 부를 것인가? 세 번째 답이 나오면 그런 알약은 정말 불가능한 것인가? 결국 AGI를 만든다고 인류의 모든 문제가 해결되지도 않을 것이고, 여전히 AGI가 못 푸는 문제도 있을 것이며, AGI가 어떤 건 불가능하다고 대답해도 여전히 그것을 가능하게 하는 방법은 있을 것이다. 그런 것뿐일까. 내가 좋아하는 사람이 어느 날 갑자기 나를 사랑하는 일도 마음대로 되지 않는다. 옆자리에 앉은 사람이 무슨 생각을 하는지도 당연히 모른다. 여전히 사람들은 심심하고 외로울 것이며 자신의 욕망을 해결하지 못해 방황할 것이다.
AGI 시대가 된다고 하더라도 인류 역사는 끝나지 않는다. 오히려 AI가 발전하는 시대에 인류는 이렇게 새로운 욕망을 가지고 그 욕망에서 파생된 새로운 일자리를 만들고, 그것이 다시 인류를 발전으로 나아가게 하는 비즈니스 모델을 구축할 것이다.
관련뉴스