英 보안당국, 기업 AI챗봇 사용에 "아직 위험하다" 경고

입력 2023-08-31 16:00  

英 보안당국, 기업 AI챗봇 사용에 "아직 위험하다" 경고
"해커가 잘못된 명령 내리거나 방화벽 우회하게 속일 수 있어"


(서울=연합뉴스) 강진욱 기자 = 영국 당국이 인공지능(AI)의 기업 업무를 연계할 경우 악용 소지가 커 위험하다는 지적을 내놓았다고 로이터 통신이 30일(현지시간) 보도했다.
영국 국가사이버보안센터(NCSC)는 이날 공식 블로그를 통해, "거대언어모델(LLM)로 불리며 사람의 목소리를 흉내 내는 알고리즘의 보안 문제가 아직 해결되지 않았다"며 이같이 밝혔다.
업계에서는 AI에 기반한 챗봇이 인터넷 검색뿐만 아니라 고객 응대 서비스나 텔레마케팅까지 대체할 것으로 보고 이를 점차 널리 활용하는 추세다.
NCSC는 이런 사업 모델이 다른 업무와 연결될 경우 위험한 일이 생길 수 있다고 지적했다.
해커가 AI 챗봇에 잘못된 명령을 내리거나 내부 보안 방화벽을 우회하도록 속일 수 있는 방법들이 학계와 연구자들에 의해 계속 발견되고 있다는 것이다.
예컨대 은행에 설치된 AI 기반 챗봇이 거래 승인 여부를 물을 때 해커가 잘못된 신호를 입력할 경우 승인되지 않은 거래가 이뤄질 가능성이 있다.
NCSC는 "LLM 서비스를 구축하려는 조직은 베타 버전 제품이나 코드 라이브러리를 사용할 때처럼 주의해야 한다"고 경고했다.
이어 "베타 버전 제품이 고객 대신 거래하지 못하도록 관리하고, 그 제품을 전적으로 신뢰하지 않는 것처럼, LLM에도 그런 주의가 필요하다"고 언급했다.

각국 관계 당국은 최근 개방형 AI를 활용한 챗GPT 등 LLM이 등장해 기업들이 이를 판매와 고객 관리를 포함한 광범위한 서비스에 활용하는 데 대해 신경을 곤두세우고 있다고 로이터는 짚었다.
또 각국은 AI가 보안에 미치는 영향에 대해서도 계속 주목하고 있고, 미국과 캐나다의 경우 해커들이 이 기술을 적극 수용하는 것으로 보고 있다는 것이다.
최근 로이터와 입소스가 공동으로 실시한 여론 조사에 따르면 많은 회사원이 챗GPT와 같은 도구를 사용해 이메일 초안 작성이나 문서 요약, 예비 조사와 같은 기본적인 업무에 활용하고 있는 것으로 나타났다.
설문에 응한 사람 중 약 10%는 직장 상사가 외부 AI 도구를 사용하지 못하도록 했다고 답했지만, 응답자의 4분의 1은 회사가 AI 기술 활용을 허용했는지조차 모른다고 대답했다.
사이버 보안 회사인 리버세이프는 기업인들이 AI 기반 도구의 위험성을 제대로 점검하지 않는다면, 이를 일상 업무에 통합하려는 경쟁이 자칫 "재앙적 결과"를 초래할 수 있다고 경고했다.
또 "고위 경영진은 최신 AI 트렌드를 무턱대고 수용하기 전에 심사숙고해야 한다"며, "AI의 이점과 위험을 평가해 조직이 위험에 빠지지 않도록 필요한 사이버 보안 조치도 함께 강구해야 한다"고 강조했다.
kjw@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!