올초부터 엔비디아를 ‘반도체회사’로만 규정짓기 어렵게 됐다는 평가가 쏟아지고 있다. ‘CUDA’라는 GPU 기반 행렬 계산을 위한 소프트웨어(SW)에 더해 엔비디아는 초거대 AI 플랫폼 기업으로 체질을 바꾸고 있다.
젠슨 황 엔비디아 최고경영자(CEO)는 AI 연산 서비스를 외부에 제공하는 클라우드를 비롯해 생성형 AI의 기초가 되는 초거대언어모델(LLM)을 누구에게나 제공하는 등 AI 생태계의 지배자가 되겠다는 전략을 구체화했다. 보일 부사장은 “엔비디아 직원 2만5000명 중 약 2만 명이 연구원”이라며 “엔비디아의 AI 반도체 경쟁력은 우수한 인력에 있다”고 말했다. 어떤 기업이든 생성형 AI 시대에 자신만의 AI를 갖고 싶어 한다.
하지만 AI 학습에 필요한 데이터센터를 구축하려면 천문학적인 비용이 든다. 엔비디아는 이 같은 높은 진입 장벽에 주목했다. ‘AI 혁명’에 비견되는 챗GPT 광풍을 보며 누구나 AI에 접근할 수 있어야 한다고 판단했다. 엔비디아 DGX 클라우드는 생성형 AI 컴퓨팅 리소스와 인프라를 묶어 압도적인 연산력을 구독 형태로 제공하기 때문에 기업들은 자체 서버를 구축할 필요가 없다. 웹 브라우저로 전용 클러스터에 접속만 하면 된다. 요리에 비유하면 밀키트와 같다.
이용료도 저렴하다. 엔비디아 최신 칩인 H100 8개가 하나의 대규모 GPU로 작동하는 인스턴스(서버의 한 형태) 하나를 구독할 때 드는 비용은 월 3만6999달러에 불과하다. 대규모 데이터센터 구축에 수십조원, 관리에 연 수조원이 든다는 점을 감안하면 획기적이다. 보일 부사장은 “서비스를 내놓자마자 많은 업체가 합류했다”며 “MS 애저, 구글 클라우드 플랫폼(GCP), 오라클 클라우드 인프라(OCI)와 파트너십을 맺었다”고 밝혔다.
강경주 기자/샌타클래라=최진석 특파원 qurasoha@hankyung.com
관련뉴스