
구글은 5일(현지시간) 자사의 AI 슈퍼컴퓨터가 엔비디아의 시스템보다 더 빠르고 효율적이라고 발표했다. 이 회사는 2016년부터 AI 반도체인 TPU(텐서프로세싱유닛)를 자체 설계하고 배포해왔다.
구글은 전날 TPU 4000개 이상으로 AI 컴퓨터 시스템을 구축했다고 공개했다. AI 모델을 실행하고 학습시키도록 설계된 맞춤형 구성 요소와 결합된 이 슈퍼컴퓨터는 2020년부터 운영되고 있다. 구글의 대규모 언어모델인 PaLM 모델을 50일 동안 학습시키는 데 활용됐다.
‘TPU v4’라고 불리는 슈퍼컴퓨터에 대해 구글은 “엔비디아의 A100으로 구성된 슈퍼컴퓨터보다 1.2~1.7배 빠르고 1.3~1.9배 적은 전력을 사용한다”고 설명했다. 더 뛰어난 성능, 확장성, 가용성 덕분에 TPU v4가 대규모 언어모델의 주력 컴퓨터가 됐다는 게 회사 측의 설명이다. 다만 구글이 비교한 엔비디아의 A100은 최신 AI 반도체가 아니라 이전 버전이다.
엔비디아는 지난달 회사의 개발자 콘퍼런스 ‘GTC’에서 최신 AI 반도체인 H100(사진)을 공개했다. 젠슨 황 엔비디아 최고경영자(CEO)는 AI 반도체의 표준을 관리하는 ML커먼스가 수행한 테스트 결과를 인용해 “H100이 이전 세대인 A100보다 4배 이상 더 높은 성능을 제공하는 것으로 나타났다”고 말했다.
엔비디아는 지난달 아마존, 구글, 오라클 등 클라우드 업체와 손잡고 H100을 기반으로 만든 슈퍼컴퓨터를 구독하는 서비스를 출시했다. 자체 컴퓨팅 시스템을 구축하기 어려운 기업들에 자사의 슈퍼컴퓨터를 빌려줘 AI 모델을 개발할 수 있도록 하겠다는 전략이다.
실리콘밸리=서기열 특파원 philos@hankyung.com
관련뉴스