급증하는 법률서비스 수요 대처 및 업무 효율성 향상
머신러닝에 기반한 또 다른 서비스로 법원의 판례 데이터를 머신러닝으로 학습한 후 개별 사건에 대한 법원의 판단을 예측하는 것이다. 대표적인 연구는 2017년 Katz 교수팀이 수행한 것인데, 미국 연방 대법원 판례 2만8000건(1816년~2015년)을 머신러닝을 통해 학습하고 법원의 판단을 예측한 것이며, 그 정확도는 70.2%에 달했다. 머신러닝의 결과를 이용해 법원의 판단을 어느 정도 예측할 수 있다면 그 자체만으로도 기업 및 개인에게 큰 도움이 될 수 있다.
이렇듯 소송의 결과가 확실한 사건은 사전에 합의하고, 불필요한 소송은 자연스럽게 줄어드는 현상이 확대되면, 급증하고 있는 국민의 법률서비스 수요도 대응할 수 있을 것이다. 소비자뿐만 아니라 공무원들도 법규 집행과 해석에 AI 판사 알고리즘을 이용해 업무 효율성을 증대할 수 있다. 또한, 머신러닝은 데이터를 분석하고 숨어 있는 패턴을 찾는데 탁월한 능력이 있기 때문에, 소송과 관련된 방대한 자료와 재판에 필요한 정보를 신속히 제공하는 등 판사의 조력자 내지는 동반자로서의 역할도 기대할 수 있다.
문제는 컴파스가 편향될 수 있다는 점이다. 2016년 미국의 독립 언론 ‘프로퍼블리카’는 컴파스 알고리즘의 문제로 인해 흑인의 재범가능성이 백인에 비해 2배 높게 나타날 수 있다고 주장했다. 이는 과거 판결이 흑인에게 불리하게 나타나는, 학습 데이터 자체에 문제가 있었던 것으로 판단된다. 많은 사람이 인공지능은 객관적이고 중립적일 것이라 생각하지만, 컴파스 사례처럼 인공지능 역시 학습된 데이터에 따라 ‘편향적’인 면을 보일 수 있다.
에스토니아 사례처럼 단순한 규칙에 의한 벌금 계산 등의 영역처럼 행정 사건 역시 법조문이 비교적 단순하고 사실관계의 패턴이 다양하지 않아 예측력이 상대적으로 높고 AI 판사가 재판을 할 수 있을 것으로 보인다. 하지만, AI가 머신러닝을 통해 패턴을 학습하더라도 문장의 맥락과 의미를 이해하고 추론하지 못한다면 인간 판사를 대체하기는 어려울 것이다. 예를 들면, 복잡한 민형사 사건은 어떤 법조문이 적용되는지 조차 판단하기 쉽지 않다. 사실 관계의 패턴이 매우 다양하며, 다양한 조문이 동시에 적용되는 상황도 적지 않다. 이러한 경우 머신러닝에 기반한 패턴 학습의 예측력은 크게 떨어지게 된다. 특히, 과거에 없었던 사건에 대해서는 더욱 그러하다.
맥락의 이해와 추론 등 현재의 AI기술 수준에서는 인간 판사를 온전히 대체하지 못하겠지만, 특정 영역에서의 조력자 역할은 가능해 보인다. 예컨대, AI 알고리즘이 머신러닝을 통해 축적된 사건과 판례를 분석하고 가정에서의 아동학대 가능성을 예측해 준다면, 이를 인간 판사가 재판에 요긴하게 사용할 수 있을 것이다.
설사, 데이터가 모두 올바르고 예측이 정확하더라도 판사는 사회의 올바르고 정의로운 기준에 맞춰 사건을 최종적으로 판단할 수 있어야 한다. 피의자의 생애, 가정 환경 등을 이해하고 사회적 가치에 근거하여 감형을 판단하는 것이 판사의 중요한 업무 중 하나이지만 AI가 이를 기계적으로 구현하기는 힘들 것으로 보인다.
두 번째로, AI 기술에 있어 맥락 파악과 추론 능력의 획기적인 발전과 함께 편향성을 제어할 수 있는 방법론도 함께 발전되어야 하며, 궁극적으로는 피의자에 대한 감정 교감과 가치 판단까지 가능한 AI 기술이 개발되어야 한다. AI를 통한 윤리적인 판결이 가능해지기 위해서는 윤리 의식이 무엇인지 분명하게 규명하고 이를 AI에 반영하도록 고민해야 하는 것이다. AI 기술이 발전한다고 해서 윤리 문제라는 복잡한 문제를 고민하지 않아도 되는 것이 아니라 AI에게 윤리를 학습시키기 위해 ‘윤리가 무엇인지’를 과거보다 더욱 깊이 있게 고민해야 하는 것이다. AI 기술의 발전과 함께 윤리적 고민과 제도적 발전을 통해 사회적 가치관을 잘 반영하는 가슴 따뜻한 AI 판사를 기대해 본다.
윤주웅 KT경제경영연구소 수석연구원
관련뉴스