인공지능과 대조적으로 규칙에 기반한 전통적인 과학과 기술은 오류가 발생해도 그 원인을 파악하고 개선할 수 있다. 예를 들어 비행기는 많은 부품으로 만들어졌지만, 기계역학과 같은 규칙에 기반해 설계돼 있기 때문에 사고가 발생하더라도 모델에 기반해 원인을 찾아 개선할 수 있었다. 오류가 발생해도 그 원인을 파악하고 개선하기 어려운 한계 때문에 인공지능 단독으로는 비행기처럼 고도로 복잡하고 생명과 관련된 장비를 제어할 수 없는 것이다.
오류의 원인을 파악하고 개선하기 어렵다면 소비자들은 인공지능을 신뢰하지 않을 것이다. 이 때문에 기업들은 오류를 줄이기 줄이기 위해 노력해 왔다. 지금까지는 투입되는 데이터를 늘려서 오류를 줄이는 방법을 많이 채택했지만, 품질이 좋은 데이터의 수집에는 많은 비용이 소요되는 문제가 있다. 또한 오류를 절반으로 줄이기 위해서는 500배의 연산횟수(컴퓨팅 리소스)가 필요하다는 연구가 있는 등 단순히 데이터를 늘리는 것은 경제적인 대안이 되기 어렵다. 인공지능을 개척하는데 큰 공헌을 한 U.C. 버클리의 스튜어트 러셀 교수는 인공지능을 근본적으로 개선하지 않고 데이터와 컴퓨팅 리소스만 늘린다면 자원과 연구자를 낭비하는 것이라고 지적하고 있다.
둘째 별도의 알고리즘(surrogate model)을 통해 인공지능의 근거를 설명하는 것이다. 다양한 방식이 있는데, 인공지능에 투입되는 변수 중에 일부를 변형하여 계산한 결과와 원래 인공지능의 결과를 비교하여 중요한 변수를 파악하는 방식이 대표적이다. 이런 방법으로 인공지능의 결과를 설명하는 알고리즘을 설명 가능한 인공지능(XAI: Explainable Artificial Intelligence)이라고 한다. 예를 들어 은행이 인공지능으로 신용평가를 하여 대출을 거부할 경우, XAI를 이용하여 젠더나 인종을 이유로 대출을 거절한 것이 아님을 설명해 줄 수 있을 것이다. 아울러 XAI는 소비자에게 결정의 근거를 설명해 줄 뿐만 아니라 개발자들이 중요한 변수를 파악할 수 있게 해주어서 오류의 원인을 파악하고 개선하는 데 도움을 줄 수 있다.
그러나 인공지능의 모델과 별개로 다른 알고리즘을 이용해 중요한 변수를 파악하는 방식이라 서비스의 작동과 서비스의 결과를 서로 다른 모델로 수행하는 것을 납득하지 못하는 사람도 많다. 설명하는 알고리즘이 실제 작동하는 알고리즘과 다르기 때문에 그럴 듯하지만 부정확한 설명을 할 가능성이 있으며, 오류 개선에도 한계가 있을 수 있다.
셋째 인공지능과 규칙에 기반한 전통적인 알고리즘을 혼합하여 알고리즘을 구성하는 방식이다. 예를 들어 과제를 단계적으로 나눈 뒤 단계별로 적합한 딥러닝과 규칙 기반의 알고리즘을 결합한 뉴로 심볼릭(Neuro-Symbolic) 인공지능 방식이 있다. 많은 변수를 한꺼번에 처리하는 것이 아니라 단계별로 알고리즘을 구성하였기 때문에 기존 인공지능 모델보다 단순하여 중요한 변수를 쉽게 파악할 수 있는 것이다. 이외에도 다양한 알고리즘들이 개발되고 있는데, 중요한 변수를 파악하기 쉬운 알고리즘들이 개발된다면 오류의 원인을 쉽게 파악하여 개선할 수 있게 될 것이다.
아울러 중요한 변수를 파악하지 못하는 인공지능의 한계가 모든 영역에서 문제가 되는 것은 아니다. 인공지능은 신약 물질 탐색, 단백질 구조의 파악과 같이 본질적으로 복잡한 현상을 분석하여 성공적으로 예측하고 있는데, 복잡계의 분석에서 중요한 변수의 파악은 크게 중요하지 않다. 많은 사회적, 자연적 현상들이 많은 변수들이 복잡하게 얽힌 복잡계이기 때문에 중요한 변수를 제시하지 못하는 것은 인공지능의 한계라기 보다는 자연스러운 결과이며, 인공지능이 가지는 한계가 인공지능의 비관론을 뜻하는 것은 아니다. 현재 소비자의 안전과 인권과 직결된 분야에서 오류 파악의 어려움이라는 한계를 극복하기 위해 다양한 방안들이 시도되고 있는데, 이러한 노력을 통해 소비자 신뢰를 얻을 수 있다면 진정한 의미의 인공지능 시대가 열릴 것이다.
문병순 KT경제경영연구소 책임연구원
관련뉴스