마이크로소프트(MS), 구글, 아마존, 메타, 오픈AI, 테슬라 등 먹이사슬 최정점에 있는 기업들도 엔비디아 앞에선 꼼짝 못 한다. 인공지능(AI) 가속기(AI 학습·추론에 필수적인 반도체 패키지)에 붙은 4만~5만달러 가격표에 ‘폭리’라고 수군거리며 조용히 ‘엔비디아 대체’를 준비할 뿐이다.
![](https://img.hankyung.com/photo/202403/AA.36194961.4.jpg)
삼성전자가 이 틈을 파고들었다. 가성비(가격 대비 성능)가 높은 AI 가속기 ‘마하1’을 개발해 네이버 등에 납품하기로 했다. MS 등 빅테크 대상 세일즈에도 들어갔다.
AI 개발 과정은 대규모 데이터를 습득해 모델을 구축하는 ‘학습’과 모델을 서비스에 적용하는 ‘추론’으로 나뉜다. 대다수 빅테크는 그래픽처리장치(GPU)에 고대역폭메모리(HBM)를 붙인 엔비디아의 AI 가속기를 학습, 추론 구분 없이 활용하고 있다. 대안이 없기 때문이다. 지난해 엔비디아 서버 매출의 40%(188억달러, 약 25조원)가 추론 분야에서 나왔다.
최근 추론 영역에는 GPU 기반이 아니라 맞춤형 AI 가속기가 더 어울린다는 목소리가 커지고 있다. 학습에는 병렬 연산(데이터를 동시에 처리)에 특화한 GPU 기반 AI 가속기가 적합하지만 차별화된 AI 서비스를 하는 데 필요한 추론에는 비싼 데다 전력도 많이 쓰는 엔비디아 제품을 굳이 넣을 필요가 없다는 이유에서다. 최근 MS, 아마존, 메타 등이 신경망처리장치(NPU) 등을 활용한 추론용 AI 가속기 개발에 나선 이유가 여기에 있다.
삼성과 네이버는 공동 개발을 통해 AI 가속기의 맞춤형 기능을 강화하는 동시에 가격을 엔비디아 제품의 10분의 1 수준으로 낮추는 데 성공했다. 경계현 삼성전자 디바이스솔루션(DS)부문장(사장)은 지난 20일 주주총회에서 “마하1은 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높인 제품”이라고 설명했다.
삼성전자는 MS, 아마존 등 빅테크를 대상으로 영업을 시작했다. 이 기업들이 AI 가속기 자체 개발에 나섰지만 성능과 비용 면에서 마하1을 함께 쓰는 게 유리할 수 있어서다. 몇몇 빅테크가 큰 관심을 보인 것으로 알려졌다.
특화된 AI 서비스 수요가 늘어나는 데 따라 추론용 AI 가속기 시장은 계속 커질 전망이다. 시장조사업체 옴디아에 따르면 지난해 60억달러이던 추론용 AI 가속기 시장 규모는 2030년 1430억달러로 확대된다. 2025년 기준 AI 가속기 중 추론용 비중이 78%로 학습용(22%)의 세 배가 될 것이란 조사 결과도 있다.
삼성전자는 AI 가속기 칩 개발 역량을 꾸준히 확보할 방침이다. 칩 개발을 담당하는 시스템LSI사업부를 지원하는 ‘범용인공지능(AGI) 컴퓨팅 랩’ 같은 별동대를 조직한 게 대표적이다. 경 사장은 최근 SNS에 “강력한 성능과 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획”이라고 밝혔다.
황정수/박의명 기자 hjs@hankyung.com
관련뉴스