엔비디아 GPU로 구현된 챗GPT, 천문학적 운영비 추산…"한 번 쓰면 몇 센트"
저전력·고효율 국산 AI반도체 전쟁 시작…내달 AI반도체 팜 사업자 선정 주목
(서울=연합뉴스) 조성미 기자 = 챗GPT 열풍으로 생성 인공지능(AI) 분야 글로벌 경쟁이 달아오르면서 AI 반도체 분야에서 2030년까지 세계 정상에 서겠다는 정부의 발걸음도 바빠지기 시작했다.
14일 업계에 따르면 챗GPT 돌풍을 전후로 국내외 빅테크와 반도체 업계가 생성 AI를 구현하는 AI 반도체를 차세대 먹을거리로 주목하며 원천 기술 개발과 시장 선점에 열을 올리고 있다.
초거대(하이퍼스케일) AI 반도체는 무수한 연산을 짧은 시간 안에 처리해야 하므로 현재 GPU(그래픽처리장치) 중심 반도체 구조로는 고전력·고비용의 한계에 부딪힐 수밖에 없다.
GPU 강자인 엔비디아 'A100' GPU 1만여 개를 사용한 챗GPT는 그래서 천문학적 비용이 들 것으로 추산된다. 이런 부담에 서둘러 유료화에 나섰지만, 이런 방식이 지속 가능한지 의문이 제기되는 것도 이 때문이다.
챗GPT를 개발한 오픈AI 최고경영자(CEO) 샘 알트만은 최근 트위터에서 "챗GPT 1회 사용에 몇 센트(single-digits cents)가 든다"고 밝힌 바 있다.
'몇 센트'를 5센트(약 63원)로 가정하고 최근 1억 명에 도달한 가입자가 하루 10번 사용한다고 하면 하루 630억 원, 한 달에만 1조9천억 원에 가까운 AI 운영 비용이 발생한다는 이야기다.
생성 AI의 비용 문제를 타개하기 위해 주목받는 것이 AI 반도체 개발이다.
우리 정부와 기업들은 비휘발성 메모리 반도체가 고속 누적 연산까지 수행하며 전력 소모를 크게 낮춘 PIM(지능형 반도체·Processing in Memory) 기술에 주목하고 있다.
국내 정보기술(IT)·반도체 업계가 손잡고 AI 반도체 개발 경쟁에 뛰어들었는데, 가장 주목받는 행보는 삼성전자[005930]와 네이버의 동행이다. 두 기업은 지난해 말 AI 반도체 솔루션을 공동 개발하겠다고 발표했다. 삼성전자 반도체 메모리 사업부가 비제조업체인 네이버와 손잡고 AI 시스템의 데이터 병목을 해결하고 전력 효율을 극대화할 AI 반도체를 만들기로 한 것이다.
AI 반도체 개발의 관건은 저비용·고효율화 달성이다. 업계에서는 삼성전자와 네이버의 제휴처럼, 더 싸고 더 효율적인 AI 반도체를 만들기 위한 업종 간 합종연횡이 앞으로 더 활발해질 것으로 내다본다.
챗GPT 열풍 이전 해외에서는 이미 시작된 흐름으로 클라우드 컴퓨팅 분야 세계 1위인 아마존웹서비스(AWS)는 자사 전용 AI 반도체, 인프렌시아를 개발해 GPU 시스템보다 최대 70% 낮은 비용에 영상 인식 서비스 속도를 8배 높인 바 있다.
AI 반도체 기술 선점 여부에 따라 업황 주기에 따라 불황이 되풀이되는 국내 반도체 산업의 메모리 의존도를 크게 낮출 수 있을 것으로도 기대된다.
과학기술정보통신부는 국산 AI 반도체를 단계별로 데이터센터에 적용해 국내 클라우드에 기반한 AI 서비스를 실증한다는 계획을 세웠다. 국산 AI 반도체 레퍼런스 확보 차원인데, 올해 428억 원, 2025년까지 1천억 원을 지원한다.
국산 AI 반도체를 활용한 'K-클라우드' 추진 7개 사업을 지난달 통합 공고했고 'AI 반도체 팜(NPU farm)' 구축 사업자는 다음 달 결정될 예정이다. 그 사업자로 어떤 클라우드-반도체 컨소시엄이 선정될지 주목된다.
csm@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스