이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
엔비디아가 메모리와 속도를 대폭 향상시킨 차세대 인공지능(AI) 반도체 ‘H200’을 공개했다. 현재 판매 중인 H100보다 속도를 2배 끌어올렸다. AMD와 인텔 등 경쟁자들과의 격차를 벌려 AI 반도체 부문의 지배력을 강화한다는 전략이다. 엔비디아는 내년 2분기에 이 제품을 판매할 예정이다.
13일(현지시간) CNBC 등에 따르면 엔비디아는 이날 새로운 그래픽처리장치(GPU) H200을 공개했다. 챗GPT를 개발한 오픈AI의 최신 대규모언어모델(LLM) GPT-4를 훈련하는 데 사용된 최고급 GPU H100의 차세대 제품이다.
H200에 141GB의 차세대 메모리 ‘HBM3’가 탑재돼 있다. 고대역폭 메모리인 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 제품이다. 이로 인해 AI 모델을 사용한 텍스트, 이미지 등의 생성 능력과 추론 능력이 향상됐다. 엔비디아는 “메타의 LLM ‘라마2’를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 2배가량 빠른 것으로 확인됐다”고 설명했다. H200은 H100과 호환된다. H100을 확보한 기업들은 새 제품을 사용하기 위해 서버 시스템이나 소프트웨어를 바꾸지 않아도 된다.
엔비디아는 이날 H200의 가격을 밝히지 않았다. 현재 H100 칩 1개당 가격이 2만5000달러∼4만달러인 점을 감안하면 이보다 비쌀 것으로 추정된다. LLM을 구동하기 위해선 수천 개의 칩이 필요하다.
H200은 앞으로 AMD가 개발한 MI300X 칩과 경쟁할 전망이다. AMD는 지난 6월 MI300X 칩을 발표하고 연말부터 본격 출시에 들어간다고 밝힌 바 있다. MI300X 칩은 최대 192GB의 메모리를 탑재해 초거대 AI 모델에 장착할 수 있다. 엔비디아 H100(120GB)의 메모리는 물론 H200보다도 큰 용량이다.
H100과 H200은 모두 엔비디아의 호퍼 아키텍처에 기반한 제품이다. 내년에 호퍼의 후속으로 블렉웰이 등장하면 블렉웰 아키텍처를 기반으로 하는 신제품이 등장할 전망이다.
엔비디아는 지난 10월 새로운 GPU 아키텍처 개발 속도를 높이고 제품 출시 주기를 기존 2년에서 1년으로 단축할 계획이라고 밝힌 바 있다.
내년에 호퍼의 후속 아키텍처로 블랙웰과 이를 기반으로 한 B100 칩이 나올 전망이다. 2025년에는 ‘X’로 지정한 새로운 아키텍처가 뒤를 이을 예정이다.
엔비디아는 오는 21일 3분기 실적을 발표한다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
관련뉴스