"AI, 3초면 특정인 목소리 완벽 복제…보이스피싱에 악용"

입력 2023-06-14 15:38  

"AI, 3초면 특정인 목소리 완벽 복제…보이스피싱에 악용"


(서울=연합뉴스) 유한주 기자 = 특정인 목소리를 감쪽같이 복제하는 생성형 인공지능(AI)이 보이스피싱에 활용되면서 피해 사례가 늘고 있다고 미 매체 악시오스가 13일(현지시간) 보도했다.
미 컴퓨터 바이러스 백신 업체 맥아피에 따르면 생성형 AI를 사용할 경우 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있다.
이 때문에 미국에서는 금융당국 등을 사칭하던 보이스피싱 조직이 이제는 범죄 대상자의 지인을 사칭하고 있다.
가족, 친구, 연인 등의 목소리를 구현한 생성형 AI로 교통사고, 강도 등 급한 상황이 생겼다면서 돈을 보내달라고 요구하는 식이다.
미리 준비한 말을 일방적으로 전달하는 것을 넘어 생성형 AI로 복제한 목소리로 실시간 대화를 할 수도 있다고 악시오스는 전했다.
생성형 AI 관련 애플리케이션(앱) 등을 활용하면 보이스피싱 범죄자가 입력하는 문장을 AI가 즉시 목소리로 구현한다는 설명이다.
실제 맥아피가 올해 1월 27일∼2월 1일 사이 전 세계 18세 이상 성인 7천 명을 대상으로 조사한 결과 응답자의 70%는 AI로 구현된 목소리와 실제 목소리를 구별할 수 없다고 답했다.
이런 상황에서 사람들은 AI 보이스피싱에 감쪽같이 속고 있다.
응답자의 10%는 AI 보이스피싱을 겪은 적 있다고 답했으며 이 가운데 77%는 실제로 돈을 잃었다고 밝혔다.
이들 피해자 중 3분의 1 이상은 1천 달러(약 127만 원) 이상 피해를 봤다고 한다.
스티브 그롭먼 맥아피 부사장은 "음성 복제는 사용하기 매우 쉬운 수단이다. 범죄자는 AI 관련 전문 지식이 없어도 이를 활용할 수 있다"고 경고했다.
전문가들은 전화 통화 시 지인과 본인만 아는 암호어를 만들어두는 것이 AI 보이스피싱을 예방하는 데 도움이 된다고 조언했다.
의심이 갈 경우 전화를 일단 끊고 다시 거는 것도 좋은 방법이라고 악시오스는 전했다.
hanju@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!