AI 시스템의 '통제력 상실'과 '악용' 위험에 대응
(서울=연합뉴스) 노재현 기자 = 네이버가 17일 자체 기술 채널 '채널 테크'를 통해 인공지능(AI)에 관한 안전성 실천 체계(ASF·AI Safety Framework)를 발표했다.
네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고 이에 대응하는 방법을 설계한 것이 특징이다.
인간이 AI 시스템에 영향을 미치지 못하게 되는 '통제력 상실 위험'을 완화하기 위해 AI 시스템의 위험을 주기적으로 평가하고 관리할 계획이다.
특히 현존 최고 성능의 AI 시스템을 '프런티어(frontier) AI'로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.
또 시스템의 능력이 기존보다 6배 이상 급격히 증가할 경우 추가 평가가 이뤄진다.
네이버는 AI 시스템의 또 다른 잠재적 위험인 '악용' 가능성에 대해서는 'AI 위험 평가 매트릭스'를 적용하기로 했다.
AI 위험 평가 매트릭스는 AI 시스템의 사용 목적, 안전 조치의 필요성 정도 등에 따라 각각 다른 방법으로 위험을 관리한다.
예컨대 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공한다.
하정우 네이버 퓨처AI센터장은 "AI 안전성 체계를 설계하고 실천하는 것은 네이버가 국내에서 처음 시도한다"며 네이버 ASF를 활용한 위험 평가 결과나 실천 경험을 외부에 공개하는 방안을 고민하고 있다고 밝혔다.
네이버는 ASF를 문화적 다양성을 반영한 AI 안전성 체계로 발전시킬 계획이라고 강조했다.
최수연 네이버 대표이사는 "네이버는 한국에서 소버린 AI '하이퍼클로바X'를 개발한 경험을 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속해 개선할 계획"이라고 말했다.
앞서 네이버는 2021년 서울대 AI 정책 이니셔티브(SAPI)와 협업해 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙인 '네이버 AI 윤리 준칙'을 발표했다.
2022년에는 AI 서비스에 산업적 시각뿐만 아니라 사회적인 관점까지 더한 AI 윤리 자문 프로세스 '체크'(CHEC)를 공개했다.
네이버는 작년 11월 영국 정부가 개최한 전 세계 첫 번째 AI 정상회의에 초청받아 AI 안전성 연구 등에 관한 협력을 논의했고 올해 5월 'AI 서울 정상회의'에서 지속 가능한 글로벌 AI 생태계를 위한 다양한 AI 모델들의 공존을 강조했다.
nojae@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스