우리 뇌에서 일어나는 학습 과정은 매우 효율적인 방식으로 단기 기억을 장기 기억으로 전환하며 이루어진다. 이러한 인간의 기억 통합 메커니즘을 모방해 인공지능의 학습 능력을 향상할 수 있다는 연구 결과가 나왔다.
▲ AI 기억 통합의 미로: 트랜스포머 모델의 뇌과학적 도전
기초과학연구원(IBS) 인지 및 사회성 연구단 이창준 단장과 수리 및 계산 과학 연구단 데이터 사이언스 그룹 차미영 CI(Chief Investigator·KAIST 전산학부 교수) 공동 연구팀은 인공지능(AI) 모델이 뇌의 기억 통합 메커니즘과 유사하게 작동한다는 것을 밝히고, 뇌의 해마에서 일어나는 기억 통합의 생물학적 특징을 적용해 인공지능의 효율성을 크게 높일 수 있음을 확인했다.
▲ (왼쪽부터) 김동겸 박사후연구원, 권재 박사후연구원, 차미영 CI, 이창준 단장
현재와 같은 인공지능의 비약적인 발전은 2017년 구글에서 개발한 트랜스포머(Transformer) 모델로부터 시작됐다. 이 모델은 문장 속 단어와 같은 시계열 데이터 내의 관계를 추적해 맥락과 의미를 학습한다. 기존 모델에 비해 압도적인 성능을 보여주며 챗GPT와 같은 대규모 언어처리 모델의 토대가 되는 등 인공지능 분야에 혁신적인 영향을 미치고 있다.
한편, 우리 뇌 변연계에 있는 해마에서 단기 기억이 장기 기억으로 전환된다고 알려져 있으며 이 기억 통합 과정에서 신경세포에 있는 NMDA 수용체가 중요한 역할을 한다. 이 수용체는 평소에는 닫혀있다가 글루탐산과 결합 시에만 이온이 지나가는 통로가 되어 신경 연결의 강도를 조절하고 기억 형성에 관여하게 된다.
연구진은 특정 조건에서만 통로가 되는 NMDA 수용체의 비선형적 특징에 주목해 이를 모사한 새로운 활성화 함수를 개발해 트랜스포머 모델에 적용했다. 또한, 이 모델의 기억 통합 메커니즘을 확인하기 위해 에이전트가 2차원 격자 위에서 경로 탐색을 하도록 작업을 설계했다. 에이전트란 자신의 환경을 인식하고, 그에 따라 목표를 달성하기 위해 독립적으로 결정하고 행동하는 프로그램을 의미한다.
무작위로 움직이는 에이전트에게 다음 장소로 이동할 때 그곳에 놓인 물체가 무엇인지 맞히게 한다. 에이전트가 해당 회차 실험 중 방문한 곳의 물체를 맞히면 단기 기억을, 해당 실험에서 방문하지 않았지만 이전 실험에서 탐색했던 물체를 맞힌다면 장기 기억을 사용한 것이다. 이 테스트를 통해 단기 기억이 장기 기억으로 전환되는 기억 통합 메커니즘을 확인할 수 있다.
그 결과, NMDA 수용체 특징을 모방한 인공지능 모델은 우리 뇌 속 해마의 장소세포 장소세포 처럼 위치를 인지하는 기능을 형성했으며, 기존 모델 대비 기억 통합 능력이 크게 향상된 것을 확인했다. 이는 트랜스포머 모델에 NMDA 수용체의 비선형성을 도입함으로써 우리 뇌와 유사하게 장기 기억과 공간 표상을 강화할 수 있다는 것을 시사한다.
▲ 트랜스포머 모델에서 뇌 NMDA 수용체의 비선형성 활용
이창준 단장은 “이번 연구는 인공지능의 성능 향상뿐 아니라 인간의 뇌와 인공지능 간 연결성에 대한 이해를 확장했다는 점에서 중요한 의미가 있다”라며, “뇌의 작동 원리를 더 깊게 이해하는 것을 바탕으로 더 발전된 인공지능 시스템을 개발할 수 있을 것”이라고 전했다.
차미영 CI는 “이번에 개발한 인공지능 모델을 통해 향후 인간과 유사한 방식으로 정보를 처리하고 기억하는 저비용 고성능 인공지능 시스템이 나올 것을 기대해본다.”라고 말했다.
이번 논문은 오는 12월 미국에서 열리는 세계 최고 권위 AI 학술대회 ‘신경정보처리시스템학회(NeurIPS)’에 채택되었다.
글. 우정남 기자 insight1592@gmail.com