13일 반도체업계에 따르면 챗GPT의 AI 학습에 활용하는 엔비디아의 ‘A100’ 그래픽처리장치(GPU)에는 SK하이닉스의 3세대 HBM(고대역 메모리·대량의 데이터를 한 번에 보낼 수 있는 반도체) D램이 적용됐다. A100보다 최신 제품인 엔비디아의 ‘H100’ GPU에도 SK하이닉스의 4세대 HBM 제품이 들어갔다. 최근 엔비디아는 A100에 이어 H100 제품도 챗GPT 서버용으로 납품하기 시작했다.
GPU는 D램에 저장된 명령을 가져와 연산하는 식으로 데이터를 처리한다. AI는 대용량 데이터를 빠르게 처리해야 하기 때문에 HBM이 필수적이다.
삼성전자도 AI 서버용 D램 출시에 적극적이다. 데이터 저장뿐만 아니라 연산까지 가능한 ‘HBM-PIM(지능형 메모리)’ D램을 개발하며 시장 공략에 속도를 내고 있다. 지난해 10월에는 GPU 업체인 AMD가 개발한 AI 가속기에 HBM-PIM을 납품했다.
박재근 한양대 융합전자공학부 교수는 “챗GPT 같은 AI 서비스가 확산하면서 HBM D램 수요도 계속 증가할 것”이라고 전망했다.
황정수/정지은 기자 hjs@hankyung.com
관련뉴스