AI에 개인마다 다른 발음 학습시켜 텍스트·컴퓨터 음성으로 전환
인도·방글라데시선 홍수 예보 시스템 파일럿 운영 중
(샌프란시스코=연합뉴스) 정성호 특파원 = 세계 최대 검색엔진 업체 구글이 인공지능(AI)을 이용해 언어 장애가 있는 사람의 말을 알아듣고 이를 받아 적는 애플리케이션(응용프로그램)을 개발 중이다.
구글은 10일(현지시간) 미디어를 상대로 '구글의 발명가들'(Inventors @ Google) 행사를 열고 현재 개발 중인 AI 기반의 혁신 기술을 발표했다.
'프로젝트 릴레이트'(relate)로 이름 붙여진 이 사업 겸 앱은 뇌졸중(중풍)이나 치매, 루게릭병(근위축증), 뇌 질환 등으로 또렷하게 발음하기 힘든 사람의 말을 알아듣도록 하는 게 목표다.
근육위축병으로 실제 이런 언어 장애를 가진 구글 직원 오브리 리도 이 앱의 주요 사용자로 개발에 참여하고 있다.
이 앱은 '듣기'와 '따라하기', '어시스턴트'의 세 가지 기능을 제공한다. 듣기는 이용자의 말을 듣고 이를 텍스트로 옮겨 다른 사람이 이를 읽거나 옮겨붙이기를 할 수 있게 해준다.
따라하기는 이용자가 말을 하면 앱이 좀 더 분명한 컴퓨터 음성으로 그 말을 되풀이해 다른 사람이 이를 알아듣도록 해준다. 어시스턴트는 텍스트로 전환된 이용자의 발언 내용을 인공지능 비서인 '구글 어시스턴트'로 보내 음악을 틀거나 전등을 켜라고 지시할 수 있다.
이를 위해선 머신러닝을 통해 개인마다 고유한 말하기 방식을 AI가 학습하는 절차를 먼저 거쳐야 한다. 약 500개의 예문과 30∼90분의 시간이 필요하다고 한다.
이 프로젝트를 이끄는 줄리 카티오는 "아직 개발 초기 단계로, 영어 화자만을 상대로 시험하고 있다"며 장기적으로는 다른 언어로도 확대할 계획이라고 말했다.
카티오는 또 이 앱이 한국식 억양을 가진 영어, 독일식 억양을 가진 영어처럼 특정 언어권 화자의 독특한 억양이 들어간 외국어를 알아듣는 데에도 쓰일 수 있다고 덧붙였다.
구글은 또 이날 인도·방글라데시에서 파일럿 프로그램으로 운영 중인 '홍수 예보 이니셔티브'도 소개했다. 이는 상습적인 홍수 피해 지역의 주민이 미리 대비할 수 있도록 홍수 경보를 발령하는 시스템이다.
2018년 시작한 이 사업은 규모를 점차 확대해 현재는 3억6천만명을 대상으로 홍수 경보를 내보내고 있다.
구글은 수천 개 위성 사진을 수집해 홍수가 자주 일어나는 지역의 디지털 지형 모델을 만든 다음 홍수가 난 상황을 수십만회 시뮬레이션해 물길의 흐름을 예측하는 모델을 설계했다.
이를 인도 정부가 1시간 단위로 측정하는 강의 수위 정보와 결합해 홍수가 날 것으로 예상되는 지역 주민에게 안드로이드 스마트폰 등으로 홍수 경보를 발령하고 있다.
이 사업을 이끄는 셀라 네보는 "이 시스템을 통해 홍수로 인한 사망자와 재산상 손실을 30∼50% 줄일 수 있다"며 "지금 3억6천만명으로 범위를 확대했는데 이는 홍수의 영향을 받는 사람 대부분을 포함하는 것"이라고 말했다.
물론 오차는 있다.
수위의 경우 평균 12㎝, 침수 지역 예측에선 평균 약 100m의 오차가 있다고 한다.
네보는 "우리 옆집이 잠길지는 정확히 예측 못 해도 우리 동네가 잠길지는 알 수 있다"면서 "다른 나라 정부들과도 논의하고 있으며 앞으로 더 확대할 것"이라고 말했다.
sisyphe@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스