“뇌공학 이용해 생각만으로 기계를 조종한다” 그 한계는 무엇인가?

“뇌공학 이용해 생각만으로 기계를 조종한다” 그 한계는 무엇인가?

Brain-computer interface, 뇌-컴퓨터 인터페이스



영화 써로게이트(2009), 아바타 (2009)를 한 번쯤은 보거나 들어 봤을 것이다. 주인공이 특수 장치 속에 누워 뇌를 연결하는 헬멧을 쓰면, 대리 로봇 (써로게이트)이나 새로운 생명체 (아바타)를 마치 자신의 몸처럼 원격으로 조종할 수 있다는 상상은 대중들에게 큰 관심을 받기에 충분했다. 

그렇다면 이러한 상상은 어디에 기반을 둬 나온 것일까? 아마도 BCI (Brain-computer interface) 뇌-컴퓨터 상호작용 기술을 참고하여 쓰였을 것이다. BCI란 인간과 기계간의 의사소통 시스템이다. 인간의 뇌파 신호, 예를 들면 EEG( Electroencephalogram,뇌전도)를 이용해 키보드나 터치스크린과 같은 신체적 입력 없이 기계를 제어하는 시스템이다. 이러한 장점으로 인해 신체적 움직임이 불편한 장애인들을 위한 시스템이 연구 중이며, 게임 산업, 로봇 산업 등에서도 역시 많은 관심을 받고 있다.

▲ 뇌-컴퓨터 인터페이스(Brain-computer interface)는 인간과 기계간의 의사소통 시스템이다.<사진=Pixa bay 이미지>

2017년 8월 네이처(Nature, Scientific reports)에 게재된 논문에서 루 박사(Trieu Phat Luu)와 미국 휴스턴대학 연구진은 최초로 BCI를 이용한 가상현실 걷는 아바타 (walking avatar) 시스템을 개발해 걸음걸이를 컨트롤할 수 있게 했다. 이 연구가 더 발전한다면, 척추 손상 등 많은 걸음장애를 회복하는데 도움을 줄 수 있을 것이라고 했다. 또한, 최근 영국왕립오픈사이언스(Royal Society open science)에 게재된 연구논문에 따르면 호주 애들레이드대학(University of Adelaide) 연구팀에서 BCI 기술을 이용한 특수 치료로 뇌졸중 환자들의 손상된 손의 운동기능이 행동 측정 방식으로 점검한 결과, 약 36%정도 향상됨을 보여주었다. 

그렇다면 정말 영화에서처럼 누워서 자신의 분신을 마음대로 조종하는 게 가능할까? 현재 로서의 대답은 ‘불가능’이다. 많은 연구자들이 19세기부터 우리의 뇌가 몸에 어떻게 명령을 내리는지에 대해 분석해오고 있지만, 현재까지 밝혀진 내용은 뇌 각각의 부위가 특정한 기능을 담당하고 있다는 정도이다. 예를 들어, 왼쪽 측두엽 특정 부위 (Broca area, Wernicke’s area)는 언어 관련 기능을, 후두엽은 시각 기능을, 그리고 양쪽 대뇌 반구 중심부에 위치한 운동 피질은 반대쪽의 손과 발 움직임 등을 담당하고 있다. 하지만 이러한 명령이 어떤 복잡한 과정을 통해서 명령을 내리는지는 아직도 불명확하다. 단지 특정 활동을 할 때 해당하는 뇌 부위가 더 활성화되어 전기 신호가 더 많이 발생한다는 정도이다.

따라서 현재까지 BCI 연구와 어플리케이션들의 대부분은 아주 간단한 정도로 사용자 의도를 알아채는 게 전부이다. 예를 들어, 왼쪽 손을 움직이는 상상과 오른쪽 손을 움직이는 상상을 비교하여 뇌의 오른쪽 혹은 왼쪽의 활성도를 측정하고 구분하여 기계 장치를 조종하는 것이다. 손가락 하나하나의 세세한 움직임, 걷는 동안의 다리 움직임 각도 등을 구분하는 것은 현재의 기술력으로는 불가능하다.

언어 명령과 관련된 BCI 역시 마찬가지이다. 공상과학 영화나 소설 심지어 몇몇의 기사들에서는 뇌파 신호만으로 언어를 해석하고 마치 텔레파시처럼 기계나 사람에게 얘기할 수 있는 것처럼 묘사해 놓았다. 마치 우리가 마음속으로 생각하고 혼잣말하는 것이 조만간 해킹 당할 가능성이라도 있는 것처럼 말이다. 하지만 이 역시 현재로서는 말도 안 되는 이야기이다.

현재 많은 연구진들이 언어와 관련된 뇌파 특성을 찾아 단어들을 구분해 낼 수 있는가를 연구 중이다. 대부분의 언어 BCI 시스템은 모음, 자음 혹은 음소를 구분하는 것에 그치고 있다. 예를 들어, 에-æ 이-i: 우-u: 모음을 구분하는 연구가 대표적이다. 이는 우리가 각기 다른 단어를 상상할 때 어떠한 언어적 뇌파 신호가 나오는가를 구분한다기보다 각기 다른 모음을 상상할 때 사용하는 입, 혀 형태의 구분(motor imagery, 운동 상상)으로 인해 나오는 뇌파를 식별해 내는 것이 대부분이다.

최근 독일 카를스루에공과대학 크리스찬 허프(Christian Herff) 박사와 연구진들이 이러한 한계점을 극복하기 위해서 진행한 연구에서는 자동음성인식 기술(ASR)과 결합하여 ‘뇌-문자(Brain-To-Text)’라는 시스템을 개발해 ‘연속 언어’ 처리를 시도했다. 하지만 약 50% 정도의 음소 오답률을 보였다. 이는 무작위 처리 확률(random chance)보다는 높은 결과를 보여주었지만, 여전히 실생활에 사용되기에는 부족한 부분이 많다.

설령 이러한 언어적 해석이 완벽히 가능해진다 하더라도, 사람 뇌의 디테일한 구조와 형태, 뇌파 파형은 마치 지문처럼 모든 사람들이 제각각 다르고 동일한 사람도 시간, 환경 그리고 컨디션에 따라 변화한다. 따라서 기계가 사용자의 패턴을 습득할 수 있는 사전 트레이닝 과정이 필요하다. 또한 위의 몇몇 실험에서처럼 외과적 수술을 이용해 뇌 피질에 직접 센서를 부착하는 침습형 (ECoG, Electrocorticogram) 방식보다 두피에 센서를 부착하는 비침습형 EEG 방식은 뇌파 신호의 미약함, 주변 잡음 때문에 정확도가 현저히 떨어진다. 따라서 BCI 기술 해킹으로 내 생각이 누군가에게 읽히고 있으면 어쩌나 하는 걱정은 지금보다 현저한 기술발전이 없는 한 기우에 불과할 것이다.

이렇듯 일상생활에서 BCI 기술이 쓰이기엔 아직 다소 무리가 있다. 하지만 이러한 한계를 극복하기 위해 전 세계 많은 연구진들이 노력하고 있고 최근 2000년대 들어 뇌공학 산업이 많은 관심을 받으며 급속히 발전하고 있다. 멀지 않은 미래에는 집에 가만히 누워 대리 로봇을 출근시키는 날이 올 거라 뇌공학 연구원으로서 바라본다.

글. 한국뇌과학연구원 송영제 선임연구원 br-md@naver.com

ⓒ 브레인미디어 무단전재 및 재배포 금지