2016년 구글 ‘알파고’가 난공불락이라고 여겨지던 인간과의 바둑 대결에서 승리했다. 2017년에는 더욱 강력해진 ‘알파고 제로’가 등장해 인공지능(AI)에 대한 두려움마저 안겨 주고 있다.
AI는 급속도로 발전해 의료·법률서비스, 비서, 콜센터 상담, 사진·동영상 인식, 자연재해 예측, 음성인식, 번역, 경제 변동 예측 등 다양한 분야에서 활용되고 있다. 의료 데이터를 기반으로 암 환자 개인별 치료 방법을 제공하고, 수많은 판례를 단시간에 찾아 주며, 뉴스와 소셜미디어를 읽고 각종 데이터를 분석해 주식시장 흐름을 예측, 투자자에게 조언해 주고 있다. 인간의 조작이 필요 없는 자율주행차도 조만간 상용화될 것으로 보인다.
AI는 분명 인류에게 편리함을 제공하지만 그 과정에서 AI를 이용한 범죄, 시스템 오류 등 부작용도 나타나고 있다. 테슬라의 자율주행차는 2016년 미국 플로리다주에서 사망사고를 냈다. 미국 캘리포니아주에서는 순찰용 로봇이 16개월 된 아이를 공격했다. 중동 예멘에서는 AI 탑재 무인기가 오작동을 일으켜 결혼식장으로 향하던 차량을 공격해 민간인 10여 명이 사망했다. 금융권에서는 시스템 오류로 AI가 특정 매도 거래에 과도하게 개입해 다우존스지수가 1분 만에 998.5포인트나 급락하는 등 손실액이 1조달러에 이르기도 했다.
AI 오류로 피해가 발생하면 법률적으로는 어떻게 해결해야 할까? 자율주행차 예를 보면 캘리포니아주는 테슬라 사망사고를 계기로 공중운행 규정을 개정했다. 운전자 개입이 가능한 레벨 3까지는 운전자에게 책임을 물을 수 있으나, AI가 완전히 운전을 맡는 레벨 4단계 이상에선 제조사 책임이 문제 될 뿐 운전자에게 책임을 물을 수 없다고 정했다. 한국도 자율주행차와 관련한 많은 논의가 진행되고 있으나 다소 늦은 감이 있다. 운전자의 개념, 주의 의무와 그 한계, 운전자와 제조사 간 책임 분배 등에 관한 사회적 합의와 입법적 보완이 시급하다.
많은 혜택을 주는 과학기술은 사람에게 해로운 목적으로도 쓰일 수 있다. 이를 ‘이중용도 과학기술’이라고 한다. 핵에너지나 바이러스 유전체처럼 인류에게 혜택을 주는 과학적 발전이 동시에 위험한 결과를 초래할 수 있다는 것이다. AI가 제공하는 안락함에 도취해 부작용에 대한 준비를 소홀히 하다가는 큰 사회적 갈등과 혼란을 겪을 수 있다. AI의 기술 발전 속도에 맞춰 그 오류를 최소화하려는 노력과 함께 AI 시대에 직면할 법적·윤리적 문제도 우리 모두 머리를 맞대고 고민해야 할 때다.
h1802442@spo.go.kr
관련뉴스