31일 반도체업계에 따르면 맞춤형 D램의 대표적 사례로 고대역폭메모리(HBM)가 꼽힌다. HBM은 D램을 수직으로 4단, 8단 등으로 쌓고 연결해 데이터 처리 용량·속도를 일반 D램 대비 열 배 이상으로 높인 제품이다.
지난해 12월께부터 세계적으로 챗GPT로 불리는 생성형 AI 열풍이 불면서 HBM 수요가 급증하고 있다. 생성형 AI의 서비스를 고도화하기 위해서는 대규모 언어 데이터를 빠르게 학습하고 처리할 수 있는 반도체가 필수적이다. 업계에서 연산용 칩으로 그래픽처리장치(GPU), GPU를 보조할 데이터 저장장치로 HBM이 낙점받았다.
피터 리 씨티글로벌마켓증권 반도체본부장은 “AI 기술 확산으로 올해 HBM이 전체 D램 매출에서 차지하는 비중은 11%에 달할 것”이라며 “2025년에 HBM이 전체 D램 매출의 27%, 2027년에는 30%를 차지할 것”이라고 전망했다. 공급이 수요를 못 따라가면서 삼성전자, SK하이닉스는 내년 말까지 총 2조원 이상을 HBM 증설에 투자할 계획이다.
HBM이 끝이 아니다. 앞으로는 D램에 중앙처리장치(CPU) 같은 연산 기능이 더해지면서 메모리반도체가 CPU, GPU를 제치고 AI 반도체산업의 중심에 서게 될 것이라는 전망이 나온다. 최근 삼성전자와 SK하이닉스는 D램에 일부 CPU 기능을 추가한 ‘PIM(processing in memory)’이라고 불리는 차세대 제품을 개발했다.
황정수/김익환 기자 hjs@hankyung.com
관련뉴스