반면, 인간은 살아오면서 축적한 지식을 기반으로 학습하기 때문에 적은 수의 예제만으로도 새로운 개념을 빠르게 배울 수 있다. 이는 인간의 지능이 특정 작업에 국한되지 않는 일반적 지능이며, 다양한 작업에 활용 가능한 일반적인 지식을 학습하거나 한 작업을 위해 습득한 지식을 다른 작업에도 응용할 수 있는 능력을 가졌기 때문이다. 이와 유사한 일반적인 지능을 가진 AI를 범용인공지능(AGI)라고 한다. AGI를 만들 수 있다면 앞에서 언급한 현 AI의 한계도 극복할 수 있으리라 기대할 수 있다. 개념적으로 AGI는 반드시 인간과 같은 사고능력을 가져야만 하는 것은 아니라는 점에서 약한 인공지능에 속한다. 그러나, 인간의 지능이 가진 중요 특징 중 하나가 일반성이며, 사고능력 없이 일반적 지능을 구현하기는 어렵기 때문에 강한 인공지능과 같은 의미로 통용되기도 한다. 그런데, 초거대 AI들은 다양한 작업에 대하여 제법 준수한 성능을 보인다. 이들과 AGI의 차이는 무엇인가?
이러한 기술적 기반 위에서 GPT-3가 도전한 목표는 ‘사전학습을 매우 강력하게 수행할 경우 미세적응없이도 다양한 목표 작업을 수행할 수 있지 않을까?’라는 가설을 검증하는 것이었다. 전이학습은 사전학습을 통해 대용량 데이터로부터 지식을 학습하는 단계와 그러한 지식을 이용해 목표 작업을 빠르게 학습하는 미세적응단계로 이루어진다. 사전학습은 목표 작업과 독립적으로 수행되는 반면, 미세적응은 목표작업 별로 수행된다. 사전학습을 강화함으로써 미세적응 단계를 생략할 수 있다면 사전학습만으로 여러 작업을 수행할 수 있는 다목적 AI를 만들 수 있으며 목표작업 별 학습 데이터가 필요없어진다. 이러한 아이디어는 기존 전이학습의 개념을 진일보시킨 발상이었다. 이를 검증하기 위해서는 많은 노력과 비용이 요구되었으나 OpenAI는 이를 마다하지 않았고 결과는 성공적이었다. 결론적으로 GPT-3의 혁신은 규모 자체가 아니라 목표 작업 별 데이터 없이 공통 데이터에 대한 사전학습만으로 여러 작업에 대하여 어느 정도의 성능을 얻을 수 있음을 실험으로 보인 것이다.
예를 들어, 현재의 AI들은 입력 문장과 출력 문장 간의 상관관계를 학습함으로써 번역을 수행하는데 이러한 방식은 내용에 대한 정확한 이해를 기반으로 하지 않는 피상적 매핑에 불과하다. 과연 의미에 대한 정확한 이해 없이 입출력 문장 간의 대응관계를 학습하는 것만으로 완벽한 번역 성능을 얻을 수 있을까? 이는 ‘개념의 이해 없이 기출문제를 암기하는 방식으로 모든 시험 문제를 풀 수 있을까?’ 라는 질문과 유사하다. 기출문제로부터 일반적인 지식을 얻기 위해서는 암기뿐 아니라 기출문제들이 요구하는 개념 및 원리에 대한 이해가 요구된다. 그러나 현재 초거대 AI들의 학습 방식은 엄청난 기억능력을 가진 AI를 만들어 가능한 한 많은 기출문제를 암기하는 것과 같다. 학습 방식의 비효율성을 막대한 양의 데이터와 강력한 컴퓨팅 인프라로 해결하고 있는 것이다. 이러한 방식으로 기존 AI보다 우수한 성능을 얻을 수는 있으나 AGI에 도달하기는 어렵다.
GPT-3 방식의 초거대 AI는 AGI와 비교되거나 완벽한 성능을 기대할 수 있는 수준이 결코 아니다. 현재의 기술로는 주어진 질문에 대한 정확한 답을 보장하거나 편견 또는 부적절한 표현을 학습하지 않도록 예방하는 것조차 쉽지 않다. 학습과 운영에 요구되는 막대한 비용을 고려하면 초거대 AI가 확실한 성과를 보이지 못할 경우 좀 더 효율적인 기술의 출현에 의해 위기를 맞이할 가능성도 있다. 초거대 AI는 AI 분야의 허블망원경이 될 잠재력이 있는 반면 항공모함 앞에 무력했던 '거함거포주의' 말기의 거대전함이 될 가능성도 있다. 그러나, 현재가 AI의 거함거포주의 시대라면 거대전함을 건조해 본 경험은 이후 항공모함의 시대에도 도움이 될 수 있다.
한동대 교수
관련뉴스