미 UCSF 연구진, 뇌 신호 전환 '알고리즘' 개발
(서울=연합뉴스) 한기천 기자 = 뇌졸중과 같은 신경질환으로 안면, 혀, 후두 근육 등이 마비된 환자들은 말을 하는 능력을 잃는다.
이런 환자를 도우려고 전자 기기를 이용해 머리나 안구 움직임을 말로 바꾸는 기술이 개발돼 있지만, 그 효과는 상당히 제한적이다. 환자가 원하는 문자나 단어를 하나하나 선택해야 하므로 전달 속도는 느려질 수밖에 없다.
그런데 미국 샌프란시스코 캘리포니아대(UCSF)의 과학자들이 환자의 뇌 신호를 받아, 말하고자 하는 구어(口語)로 합성하는 컴퓨터 알고리즘을 개발했다. 컴퓨터가 인간의 생각을 뇌파로 읽어 말로 바꾸는 것이다.
25일(현지시간) 온라인(www.eurekalert.org)에 배포된 보도자료에 따르면 이 대학의 에드워드 창 신경외과 교수팀이 수행한 연구 보고서는 저널 '네이처(Nature)'에 실렸다.
창 교수팀은 말하는 능력이 정상인 간질 환자에게 여러 개의 완전한 문장을 읽게 하고, 그사이 발생한 뇌 신호를 스캔해 데이터로 저장했다. 그런 다음 자체 개발한 컴퓨터 알고리즘으로 환자의 구어 발음과 뇌 신호 데이터를 대조해 다수의 기계 음성을 합성했다.
또한 발음이 달라질 때 입술, 혀, 턱, 성대 등이 뇌의 지시에 따라 어떻게 다르게 움직이는지를 '성도(聲道) 지도'에 표시해 음성을 합성하는 컴퓨터 프로그램에 반영했다.
이렇게 성도의 변화를 알고리즘에 반영한 부분이 특히 많은 환자에게 이 기술을 적용하는 데 도움이 됐다.
컴퓨터 합성 구어는 발음의 정확성에서 상당한 편차를 보였다. 그러나 사람들이 얼마만큼 바르게 이해하는지 테스트한 결과, 정확히 알아듣는 경우가 50%를 넘었다.
보고서의 제1 저자인 고팔라 아눈만치팔리 박사는 "보통 사람은 1분에 약 150개 단어를 말하는데 (마비 환자를 보조하는) 현재 기술로는 기껏해야 1분에 10개 단어밖에 전달하지 못한다"면서 "이런 차이가 바로, 컴퓨터를 이용해 뇌 신호를 말로 바꾸는 게 가능한지 테스트하기 시작한 동기"라고 말했다.
연구팀은 마비 환자와 발화 능력을 잃은 환자가 포함된 임상 시험을 준비하고 있다. 훈련 과정을 거친 컴퓨터 알고리즘을 여러 유형의 뇌 신호 데이터에 시험하기 위해서다.
창 교수는 "우리의 이런 시도가, 말하는 능력을 상실한 근육 마비 환자들에게 도움이 되기를 바란다"고 말했다.
cheon@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
관련뉴스