안면인식기술, 아시아인·흑인 잘못 알아볼 확률 백인의 100배

입력 2019-12-20 09:36  

안면인식기술, 아시아인·흑인 잘못 알아볼 확률 백인의 100배
美정부기관 연구결과…"죄 없는 사람 감옥 갈 수도" 우려 나와


(서울=연합뉴스) 이영섭 기자 = 안면 인식 기술이 백인보다 유색인종을 대상으로 오류를 낼 확률이 훨씬 높다는 미국 정부의 연구 결과가 나왔다.
미국 표준기술연구소(NIST)는 19일(현지시간) 공개한 연구 보고서에서 이같이 밝혔다고 AFP통신 등 외신이 보도했다.
NIST 연구진은 안면 인식 알고리즘 수십 개를 분석한 결과 아시아인과 흑인 등 유색인종을 대상으로 '긍정 오류'가 발생할 확률이 백인에 비해 100배나 높았다고 밝혔다.
특히 이 중 두 알고리즘은 흑인 여성을 남성이라고 잘못 판단하는 경우가 35%에 달했다고 이들은 설명했다.
안면 인식 기술에서 긍정오류란 대상의 신원을 잘못 파악하는 것을 뜻한다. 한 사람의 얼굴을 보고 다른 사람이라고 판단하는 경우가 이에 해당한다.
반면 부정오류는 인식된 정보를 데이터베이스에 있는 정보와 일치시키지 못하는 것을 의미한다. 특정 인물의 얼굴을 보고도 그를 못 알아차릴 때가 이에 속한다.
연구진은 긍정오류가 부정오류보다 더 심각한 문제를 초래할 수 있다고 경고했다.
수석 연구원인 패트릭 그로서는 "부정오류는 그저 불편한 정도"라며 "휴대폰이 주인을 못 알아차리는 경우인데, 몇 차례 다시 시도하면 해결될 수 있다"고 설명했다.
이어 그는 "긍정 오류가 발생하면 여러 사람 중 한 명을 집어내야 하는 상황에서 틀린 인물을 고르게 된다"고 지적했다.
미국에선 이미 공항, 국경, 은행, 소매업, 학교, 스마트폰 암호 해제 등 광범위한 분야에서 안면 인식 기술을 도입하고 있어 이번 연구가 지니는 함의는 특히 크다.
미 국토안보부는 미국 시민을 포함해 모든 여행객의 출입국시 얼굴 촬영을 의무화하는 방안을 추진 중인 것으로 알려졌다.
이런 와중에 안면 인식 기술이 오류를 내면 죄 없는 사람이 감옥에 수감되는 등 피해를 초래할 수 있다는 우려가 나온다.
인권단체인 미국시민자유연맹(ACLU)의 제이 스탠리 수석 정책분석가는 성명을 내 "하나의 오류 때문에 비행기를 놓치고, 오랜 심문을 받고, 주의 인물 리스트에 오르는 상황이 일어날 수 있다"고 우려를 표했다.
younglee@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!