이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
엔비디아는 13일(현지시간) 새로운 AI(인공지능)칩 H200 GPU(그래픽처리장치)를 발표했다.
여러 외신에 따르면 엔비디아가 이 날 발표한 새로운 H200 텐서코어 칩은 141GB의 차세대 HBM3 메모리가 포함돼있으며 추론에 사용하거나 AI 모델에서 답변을 생성할 때 현재 H100 모델보다 최대 60%~90% 더 높은 성능을 제공한다.
엔비디아는 메타(META) 의 라마2 LLM(대용량언어모델)을 기반으로 한 테스트에서 H200이 H100보다 거의 두 배 빠른 출력을 생성했다고 밝혔다.
또 H100과도 호환될 수 있어 이미 이전 모델로 훈련하고 있는 AI 회사가 새 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 덧붙였다.
엔비디아는 H200 칩으로 구동되는 시스템이 아마존, 구글, 마이크로소프트 등 주요 클라우드 서비스 제공업체와 엔비디아의 하드웨어 파트너에게 2024년 2분기부터 이용가능해질 것이라고 밝혔다.
이 회사의 하이퍼스케일 및 고성능 컴퓨팅 담당 부사장인 이언 버크는 “H200을 통해 업계 최고의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼이 중요한 기술 과제들을 더 빠른 속도로 해결할 수 있다”고 말했다.
엔비디아의 GPU는 AI 모델 훈련과 고객 서비스 제공에 필요한 병렬 계산용도로 판매된다. 올해초부터 대량 공급된 하이엔드 칩 H100은 GPU당 약 25,000달러~40,000달러 사이이다. 생성 인공 지능에 대한 관심이 높아져 제품 부족 현상이 발생하면서 이 제품은 기업과 정부 기관들이 확보 경쟁을 벌여왔다.
한편 또다른 AI칩 생산업체인 AMD(AMD)가 곧 출시할 MI300X GPU 칩 역시 추론 애플리케이션 시장을 겨냥해 기존 AI칩보다 업그레이드된 성능을 표방하고 있다. 엔비디아의 H200 과 비교한 스펙은 아직 알려지지 않았다.
엔비디아는 지난 달 투자자 프리젠테이션에서 종전 2년 단위의 AI칩 주기가 1년 주기로 더 빨라지고 있다며 2024년과 2025년에 더 향상된 고급 AI 제품을 출시할 계획이라고 밝혔다.
김정아 객원기자 kja@hankyung.com
관련뉴스