"AI가 인간이 이해할 수 없는 금융상품 만든다면 어떻게 되겠느냐"
"AI 위험은 사전 예측 불가능…신속 대응 규제기관 설립 시급해"
(서울=연합뉴스) 박진형 기자 = 인공지능(AI) 기술이 재앙과 같은 금융위기를 일으킬 가능성이 있다고 유명 역사학자인 유발 하라리 이스라엘 히브리대 교수가 전망했다.
하라리 교수는 9일(현지시간) 영국 일간 가디언과 인터뷰에서 "금융계는 오직 데이터만으로 이뤄져 있기 때문에 AI에 이상적으로 적합한 분야"라며 이같이 밝혔다.
그는 2008년 세계 금융위기가 부채담보증권(CDO)처럼 극소수만 이해할 수 있고 따라서 적절하게 규제되지 않은 금융상품에 의해 초래됐다고 언급했다.
이어 "AI가 금융 시스템에 대해 더 큰 통제권을 가질 뿐만 아니라 AI만 이해할 수 있고 사람은 아무도 이해할 수 없는 새로운 금융 도구를 창조하기 시작하면 어떤 일이 벌어지겠느냐"고 우려했다.
하라리 교수는 AI가 "스스로 결정을 내릴 수 있고 스스로 새로운 아이디어를 만들어내며 스스로 학습하고 개발할 수 있는 최초의 기술이기 때문에 인류 역사상 기존의 모든 기술과 다르다"고 평가했다.
따라서 "거의 당연히 인간, 심지어 그 기술을 창조한 인간조차 (AI의) 모든 잠재적 위험성과 문제점을 예상하기 극히 어렵다"고 강조했다.
그는 AI와 관련해 핵무기처럼 모두가 이해할 수 있는 크고 위험한 단일 시나리오는 없으며 "매우 많은 수의 위험한 시나리오가 있다"고 설명했다.
이어 "개별 시나리오 각각의 가능성은 상대적으로 작지만, 합하면 인류 문명의 생존을 해칠 수 있는 위협이 된다"고 지적했다.
하라리 교수는 AI 안전과 관련해서 특정한 법·규제 조항을 만드는 것이 아니라 AI 기술을 잘 알아 새로운 기술혁신에 신속하게 대응할 수 있는 규제기관 설립에 초점을 맞춰야 한다고 밝혔다.
그는 "(AI의) 모든 위험성과 문제점을 사전에 예측할 수 없고 이에 대응하는 법을 사전에 만들 수 없다는 점을 인식하고 (AI의) 위험이 생기면 이를 식별하고 대응할 수 있는 강력한 규제기관을 최대한 빨리 만들어야 한다"고 촉구했다.
이어 "의회를 통과할 때가 되면 시대에 뒤떨어지게 되는 매우 길고 복잡한 규제 조항을 만드는 것이 아니라" 이런 규제기관 설립에 주력해야 한다고 말했다.
그는 지난주 미국·영국 등 주요 국가들이 AI 안전과 관련해 정상회의를 갖고 발표한 '블레츨리 선언'에 대해 AI 기술을 이끄는 국가들이 우려를 나타내고 이와 관련해 뭔가 하기 위해 모였다는 점에서 "매우 중요한 한 걸음 전진"이라고 평가했다.
또 "가장 고무되거나 기대되는 점은 유럽연합(EU)·영국·미국뿐만 아니라 중국 정부도 (블레츨리) 선언에 서명했다는 점"이라며 "내 생각에 이는 매우 긍정적인 신호다. AI의 가장 위험한 잠재력을 억제하는 것은 세계적 협력 없이는 불가능하지는 않다고 해도 극히 어려울 것"이라고 덧붙였다.
지난 2일 폐막한 AI 안전 정상회의에는 미국·영국 등 10개국 정부와 EU, 오픈AI·구글 등 AI 기업들이 참가, 첨단 AI 모델의 출시 이전과 이후 안전성을 시험하기 위해 협력하기로 합의했다.
또 영국은 지난 달 AI 안전 연구소 설치를 발표했으며, 미국도 비슷한 기관을 운영하겠다고 밝혔다.
앞서 하라리 교수는 6개월간 첨단 AI 개발 유보 기간을 갖고 AI 기업들이 그 회사 상품이 일으킨 피해에 대해 법적 책임을 지도록 해야 한다고 주장한 바 있다.
jhpark@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스