인공지능(AI)의 본질은 알고리즘이다. 많은 경우 인공지능은 이를 구현하는 하드웨어 혹은 기계적 측면과 동의어로 사용된다. 로봇공학, 머신러닝, 지능기계, 사이보그, 봇, 로봇 등이 대표적이다. 하지만 인공지능은 수많은 코드로 구성된 알고리즘이다. 코드를 구성하고, 엮어 알고리즘을 만드는 일은 인간 개발자의 몫이다. 그리고 그 과정에서 개발자의 목표와 이념이 알고리즘에 반영되기 마련이다. 알고리즘이 결코 객관적일 수 없는 이유이다.
불공정성은 파괴적인 피드백 루프를 의미한다. 파괴적 피드백 루프란 서로 물리고 물리는 관계를 통해 상황이 악화되는 경우를 의미한다. 가난한 사람들은 신용 상태가 나쁘고, 범죄 발생률이 높은 동네에 살 가능성이 높다는 가정을 알고리즘이 반영할 경우 이들은 대출심사에서 거부되거나 높은 금리를 적용받을 확률이 높아지고, 작은 범죄에도 체포될 확률뿐만 아니라 더 긴 형량을 받게 될 확률이 높아진다. 알고리즘의 파괴적 피드백은 확장성의 개념과도 연결된다. 더 높은 금리를 적용받은 사람이나 더 긴 형량을 받은 사람들이 아파트나 일자리를 구할 때는 물론이고 자동차를 렌트할 때조차 기준이 되어 삶 전체에 부정적 영향을 미치는 현상이 나타난다. 이것이 나쁜 알고리즘의 마지막 기준인 확장성이다.
물론 부당함이 인류 역사에서 존재하지 않았던 적은 없었다. 대출 담당자의 횡포가 극심했던 시기가 불과 30년 전이었고, 채용 과정에서 여성이 당하는 불이익 문제는 오늘날까지 완전히 해결됐다고 말하기 어렵다. 아무리 나쁜 알고리즘이라 하더라도 과거의 부당함보다는 낫다고 주장하는 사람들도 있을 것이다. 하지만 인간은 학습하고 적응함에 따라 개선하고 진화한다. 문제를 인식하고 이에 맞춰 제도나 시스템을 개선할 수 있다. 그러나 알고리즘은 개발자들이 이를 코드로 전환해 이식할 때까지 변하지 않는다. 무엇보다 알고리즘은 과거를 코드화할 뿐이다. 기본적으로 과거와 기존 패턴들이 반복될 것이라는 가정에 기반을 둔다. 알고리즘과 개발자들 자발적인 노력으로 알고리즘이 개선되기 어려운 이유이다.
알고리즘이 디지털 경제의 엔진임은 분명하다. 하지만 효율성이라는 가치만을 추구하지 않도록 사회적 합의가 필요하다. 누군가의 이익이 누군가의 피해를 대가로 한 결과라면 지속가능하지 않기 때문이다. 눈에 보이는 효율성을 희생시키더라도 눈에 보이지 않는 공정성 혹은 공익의 가치가 알고리즘에 반영돼야 한다. 사회 곳곳에서 알고리즘의 불공정성에 대한 논의가 활발한 요즘이다. 알고리즘은 목적이 아니라 수단이며, 모든 것을 해결할 수 있는 만능 수단이 아님을 기억해야 한다.
알고리즘의 투명성 확보 위해
불공정에 대한 감시제도 필요
관련뉴스