최근 미국 스탠퍼드대 캠퍼스에서 만난 마이클 손더스 과학공학경영 명예교수는 AI의 현주소에 관해 묻자 이같이 말했다. 그는 심각한 표정으로 “AI로 학습한 자율주행 자동차는 사고 발생 상황에서 차 안의 운전자를 보호할지, 차량 밖에 있는 사람을 살려야 할지 결정해야 하는 딜레마에 빠진다”며 “AI를 개발하는 과학자들은 윤리적으로 고민하고 책임져야 한다”고 지적했다. 손더스 교수는 복잡한 수학적 문제를 풀어내는 최적화 분야의 세계 최고 수준 권위자로, 이와 관련된 소프트웨어를 개발하는 컴퓨터공학의 근간을 세운 원로 학자다.
최근 실리콘밸리의 최대 이슈 중 하나는 AI를 둘러싼 윤리적 책임론이다. 지난달 28일 미국 비영리단체 ‘삶의 미래 연구소’가 모든 AI 연구소에서 “GPT-4보다 강력한 AI 모델 연구를 최소 6개월 동안 중단할 것”을 촉구하는 공개 성명을 발표한 것은 논쟁을 부추기기에 충분했다. 당시 성명에는 스티브 워즈니악 애플 공동창업자, 일론 머스크 테슬라 최고경영자(CEO) 등 실리콘밸리 주요 창업자는 물론 <사피엔스>를 쓴 작가 유발 하라리 등 수천 명이 참여했다. 이들은 선출되지 않은 권력인 AI 개발자들에게 사회와 인류에 중요한 결정을 맡기면 심각한 위험을 초래할 수 있다고 지적했다. 이제 실리콘밸리의 많은 사람이 AI를 잘 활용해야 한다는 데 공감대를 형성하는 한편 윤리적 검토와 관련해 토론을 거듭하고 있다.
AI가 변화무쌍하게 진화하는 현시점에서 앞으로 어떻게 세상을 바꿀지는 아무도 모른다.
손더스 교수는 AI 대중화를 구글의 일상화에 비유했다. 인터넷 대중화 이후 구글이 아예 일상의 일부가 돼버린 것처럼, 20년 뒤 AI에 대한 의존도가 그만큼 커질 수 있다는 것이다. “스스로 사고하지 않고, 사실 여부를 확인하지 않고 맹목적으로 믿는다면 어떤 위험한 상황이 와도 이상하지 않을 것”이라는 그의 말을 곱씹어볼 때다.
관련뉴스