메타는 23일(현지시간) 새로운 버전의 대규모언어모델(LLM) 라마3.1을 출시했다고 발표했다. 파라미터(매개변수)가 4050억 개에 달하는 라마3.1 405B부터 중형 모델 라마3.1 70B와 소형 모델인 라마3.1 8B까지 세 종류다.
라마3.1 학습에 엔비디아의 최신 그래픽처리장치(GPU) H100 1만6000개가 활용됐다. 이전 모델과 비교해 지원 가능 언어에 8개 언어가 추가됐고 이용자가 사람의 외모 등을 설명하면 실제 사진처럼 보이는 이미지를 생성하는 기능도 생겼다. 메타에 따르면 라마3.1은 ‘대규모 다중작업 언어 이해(MMLU)’에서 오픈AI의 GPT-4o, 앤스로픽의 클로드3.5 소네트를 능가했다.
라마3.1은 이전 모델들과 마찬가지로 오픈소스다. 구글, 오픈AI 등 경쟁사들과 가장 다른 점이다.
실리콘밸리=송영찬 특파원 0full@hankyung.com
관련뉴스