2022년 11월 본격적으로 이름을 알린 생성형 인공지능(AI)은 산업혁명에 버금가는 변화를 불러올 전망이다. 반도체산업에서도 과거와 다른 양상이 나타나고 있다. CPU, 애플리케이션프로세서(AP)로 대표되는 연산 중심 칩이 아니라 ‘데이터’를 잘 다루는 반도체가 중심에 서는 시대가 왔다는 것이다. 양질의 대규모 데이터를 빠르게 학습하는 게 AI 서비스의 성패를 좌우하고 있는 영향이 크다.
특히 D램은 AI 서비스 성공의 키를 쥐고 있다는 평가가 나온다. D램은 데이터를 저장하고, 이 데이터를 그래픽처리장치(GPU)가 이해할 수 있는 프로그램으로 바꿔 보내줌으로써 연산을 가능하게 한다. GPU가 더 많은 데이터를 빠르게 연산해 AI를 고도화하기 위해선 D램이 한 번에 대용량 데이터를 빠르게 보내주는 능력(대역폭)이 향상돼야 한다. 하지만 일반 D램이 가진 32개 또는 64개의 데이터 통로(I/O)만으로는 GPU와의 소통이 원활하지 않았다. ‘데이터 병목현상’이 문제가 됐기 때문이다. 기업들은 최첨단 패키징을 통해 I/O를 1024개까지 늘리고 D램을 쌓아 용량을 늘린 고대역폭메모리(HBM)를 개발했다.
반도체업계에선 “현재의 HBM으론 아직 부족하다”는 평가가 나온다. 삼성전자와 SK하이닉스는 내년 하반기께 I/O를 기존의 2배인 2048개로 늘리고, D램을 16단까지 쌓아 올린 6세대 HBM ‘HBM4’를 통해 본격적인 대응에 나설 계획이다.
황정수 기자 hjs@hankyung.com
관련뉴스