올해 초 ‘이루다’라는 인공지능(AI) 챗봇이 서비스 이용자와의 대화에서 장애인·성소수자 등에 대한 혐오 발언을 쏟아내 논란을 일으켰다. 이루다는 개인정보 유출 논란까지 겹쳐 서비스가 중단됐다. 이 사건은 “AI를 믿을 수 있는 거냐”는 회의론을 불러오는 등 AI업계 전반에 타격을 줬다.
이런 불의의 사고를 예방하려면 AI 개발 전 과정에서 법적·윤리적 위험을 낮추는 체계를 구축하는 데 힘을 쏟아야 한다는 주장이 제기됐다. 이른바 ‘신뢰할 수 있는 AI(Trustworthy AI)’를 구현해야 한다는 얘기다.
지카리 교수는 약 30년간 빅데이터와 AI를 연구해온 세계적인 데이터 과학자다. 그는 “세계적으로 AI의 잠재적 위험을 낮춰야 한다는 논의가 활발하다”며 유럽연합(EU) 사례를 소개했다.
EU 집행위원회는 2019년 ‘신뢰할 수 있는 AI를 위한 프레임워크’를 발표했다. 여기서 △인간의 자율성 존중 △무해성 △공정성 △설명 가능성 등 네 가지 원칙과 기술적 안전성, 개인정보 보호 등 AI에 요구되는 일곱 가지 사항을 정했다. EU는 이런 내용을 바탕으로 AI 제품·서비스를 규제하는 방향의 입법까지 추진하고 있다.
지카리 교수는 “EU의 AI 규제는 기준이 모호하다는 한계가 있지만 AI의 위험도를 낮추는 시도 자체는 타당하다”고 강조했다. 이어 “AI 알고리즘을 설계하고 개발하는 단계부터 서비스·제품을 만들어 배포하고 모니터링하는 단계까지 전 과정에 걸쳐 AI의 법적·기술적·윤리적 영향을 평가하는 체계를 만들어야 한다”고 했다.
AI의 위험도를 낮추기 위한 구체적인 대안도 제시됐다. AI 스타트업 노타의 김태호 최고기술책임자(CTO)는 “AI 기업 입장에선 개인정보 보호가 가장 큰 과제 중 하나”라며 “데이터를 클라우드가 아니라 스마트폰·CCTV(폐쇄회로TV) 등 ‘에지’ 단계에서 처리하면 정보 유출 위험을 줄일 수 있다”고 말했다. AI업계에서 에지란 데이터가 생성되는 스마트 기기 혹은 그와 가까운 지점을 뜻한다. 김 CTO는 “노타는 에지 단계에서 데이터 처리를 최적화하는 기술을 집중 개발하고 있다”고 소개했다.
이광희 보잉한국기술연구소 AI 리드는 “편향된 데이터로 AI를 학습시키면 신뢰도에 치명적”이라며 “데이터 편향을 예방할 수 있게 사전 체크해야 할 항목을 체계화할 필요가 있다”고 말했다.
서민준/이시은/배성수 기자 morandol@hankyung.com
관련뉴스