▲ 뇌의 작동 원리를 모방하는 AI 기술의 진화 [사진=게티이미지]
이제 전기차는 더 이상 낯선 풍경이 아니다. 조용히 미끄러지듯 달리는 전기차들을 보며 우리는 기름 없이 운행하는 시대에 익숙해지고 있다. 하지만 미래의 자동차는 자율주행이라는 더 놀라운 변화를 준비하고 있다.
자율주행 기술은 최첨단 컴퓨터와 고성능 센서만으로는 불가능하다. 기계는 인간처럼 직관적으로 생각하고 예측하는 능력이 부족하기 때문이다. 당신이 차를 운전하며 한적한 골목길을 지날 때 갑자기 축구공이 차 앞으로 굴러온다면 무의식적으로 브레이크에 발을 올릴 것이다.
보이지는 않지만 공을 따라 뛰어나올 아이의 존재를 직감하고 위험을 예측했기 때문이다. 이처럼 무의식적으로 패턴을 읽어내는 능력은 오직 인간만이 가진 고유한 감각이다.
인공지능의 새로운 진화
인공지능(AI) 기술은 이제 인간의 지능을 모방하는 단계에 접어들고 있다. AI 연구는 인간의 뇌가 가진 초고효율의 정보 처리와 학습 메커니즘을 탐구하며 딥러닝 시대의 한계를 뛰어넘으려 한다. 이는 AI가 뇌의 원리를 학습함으로써 인류의 가장 중요한 질문, 즉 ‘인간만이 할 수 있는 것은 무엇인가’에 대한 답을 찾는 여정이라고 할 수 있다.
최근 국내 연구기관들은 뇌의 작동 방식을 모방하여 AI의 성능을 혁신적으로 개선하는 연구 성과를 잇달아 내놓고 있다. 인간의 시각 시스템을 모방한 AI는 이미지 인식의 새로운 지평을 열었다. 기존 AI 모델이 이미지의 특정 부분만 좁게 인식하는 한계가 있었지만, 기초과학연구원(IBS)과 연세대학교 공동 연구진은 뇌의 시각 피질이 정보를 처리하는 방식에 영감을 받아 ‘Lp-컨볼루션’이라는 새로운 신경망을 개발했다.
이 기술은 뉴런의 연결 특성인 가우시안 분포를 모방하여 이미지의 중심부뿐만 아니라 주변부 정보까지 부드럽게 통합함으로써 훨씬 유연하고 정확하게 사물을 인식할 수 있게 한다. 이러한 연구 결과는 권위 있는 AI 학회인 ‘ICLR 2025’에서 발표되며 그 우수성을 인정받았다. [1]
뇌의 효율적인 학습 원리도 AI에 적용되고 있다. 뇌는 놀라울 정도로 적은 에너지로도 복잡한 학습을 수행하는 반면, 기존 AI는 방대한 계산량을 요구하는 ‘가중치 수송 문제’라는 난제를 가지고 있었다. 이에 KAIST 연구팀은 이 원리를 모방해 무작위적 사전 훈련을 통해 가중치 수송 없이도 효율적인 학습이 가능함을 증명했다. 이는 AI를 더욱 가볍고 효율적으로 만들며, 초고효율의 뉴로모픽 컴퓨팅 기술 상용화에 중요한 발판이 될 것이다. [2]
또한, 인간의 기억 통합 과정을 모방해 AI의 학습 능력을 고도화하고 있다. 인간은 단기 기억을 장기 기억으로 전환하는 능력이 있는데, IBS와 KAIST 연구진은 뇌의 NMDA 수용체가 이 역할을 한다는 점에 착안해 AI 모델에 이를 적용했다.
그 결과, AI가 단기적으로 학습한 정보를 장기적으로 기억하고 활용하는 능력이 크게 향상되는 것으로 나타났다. 이 연구는 신경정보처리시스템학회(NeurIPS)에 채택되며 학계의 주목을 받고 있다. [3]
이처럼 AI는 단순히 데이터를 처리하는 단계를 넘어 인간과 유사한 방식으로 사고하고 학습하는 존재로 진화하고 있다. 생각만으로 기기를 제어하는 뇌-컴퓨터 인터페이스(BCI) 기술은 인간의 뇌 기능을 보조하고 확장하는 데 기여할 것이다. 또한 AI는 방대한 뇌 데이터를 분석하여 알츠하이머 같은 뇌 질환을 조기 진단하고 개인 맞춤형 치료법을 제시하는 등 인류의 건강에도 크게 기여할 것으로 전망된다.
인간의 초지능을 이식한 자동차
전통적인 자율주행 시스템은 모든 상황을 미리 프로그래밍한 규칙과 센서 정보에 의존한다. 이 방식은 예측 가능한 상황에서는 완벽하게 작동하지만, 예측 불가능한 돌발 상황에는 매우 취약해 보였다. 모든 가능성을 컴퓨터에 입력하는 것은 사실상 불가능하다. 이 때문에 안전성과 신뢰도에 대한 의문이 계속해서 제기되어 왔다.
그런데 최근 과학자들은 이 어려운 문제의 답을 뇌에서 찾았다. 인간의 뇌를 모방하는 초지능(Superintelligence)을 자동차에 이식하려는 담대한 시도가 시작된 것이다. 이는 자동차를 단지 이동 수단이 아니라, 인간의 사고방식을 학습하고 함께 판단하는 지능형 파트너로 진화시키려는 노력의 일환이다.
테슬라의 자율주행 기술인 FSD는 다른 회사들과 조금 다른 접근 방식을 취한다. 대부분의 자율주행 차가 라이다LiDAR라는 비싼 센서를 사용해 복잡한 3D 지도를 그리지만, 테슬라는 인간처럼 오직 카메라의 눈에만 의존한다. [4]
이 AI는 수많은 자동차에서 얻은 방대한 데이터를 학습해, 길 위의 모든 정보를 하나의 거대한 뇌로 이해한다. 테슬라는 도로 위의 모든 물체를 사각형으로 인식하는 기존 방식에서 벗어나, 물체의 형태와 속성까지 완벽하게 파악하는 점유 네트워크(Occupancy Networks)를 개발하고 있다. 이는 마치 우리 뇌가 눈으로 들어오는 시각 정보만으로 복잡한 세상을 한눈에 파악하는 것과 같다. 일론 머스크는 이 AI가 결국 사람의 운전 능력을 뛰어넘는 ‘초지능 운전 에이전트’가 될 것이라고 말한다. [5]
이러한 접근 방식은 경제적인 이점뿐 아니라 AI가 인간의 인지 능력을 그대로 모방할 수 있다는 철학적인 믿음에 기반한다. 라이다에 의존하지 않고 시각 정보만으로 상황을 판단하는 AI는 인간의 뇌처럼 범용성을 갖게 되어 다른 로봇이나 기계에도 쉽게 적용될 수 있다.
뇌의 작동 원리를 모방해 효율을 높이는 AI 기술
자율주행 자동차가 인간처럼 직관적으로 움직이려면 뇌의 작동 원리를 따라야 한다. 이는 AI의 효율을 극대화하는 핵심이다. 우리 뇌는 모든 정보를 처음부터 끝까지 분석하지 않는다. 대신, 과거의 경험과 지식을 바탕으로 ‘다음에 무슨 일이 일어날까’를 예측한다. 그리고 예측과 다른 일이 일어났을 때만 그 차이(예측 오차)에 집중한다. 이 덕분에 뇌는 에너지 소모를 줄이면서 빠르게 반응할 수 있다. [6]
자율주행 자동차도 뇌의 메커니즘을 모방해 예측 코딩을 배우면, 시스템이 미리 계산한 도로 상황과 실제 상황이 다를 때만 모든 연산 자원을 투입해 빠르게 판단할 수 있다. 이는 전력 소모를 줄이는 것은 물론, 복잡한 돌발 상황에 대한 반응 속도를 획기적으로 향상시킨다.
우리 뇌는 20와트 정도의 매우 적은 전기로 초당 수십조 번의 연산을 해내는 경이로운 효율성을 자랑한다. 이처럼 뇌의 병렬 처리 방식을 모방한 것이 바로 ‘뉴로모픽 컴퓨팅’이다. [7] 기존 컴퓨터는 중앙처리장치가 데이터 처리와 저장을 따로 수행하는 ‘폰 노이만 아키텍처’를 사용해 병목 현상이 발생한다. 이는 마치 요리사가 재료를 가지러 계속 식료품 창고를 들락날락하는 것과 같다.
하지만 뉴로모픽 칩은 뇌의 시냅스처럼 데이터 처리와 저장을 동시에 수행한다. 이 칩은 모든 재료를 손이 닿는 곳에 두고 요리하는 것과 같아서, 실시간 연산에 최적화되어 있다. 인텔의 로이히Loihi나 IBM의 트루노스TrueNorth 같은 뉴로모픽 칩은 전력 효율을 획기적으로 높이면서 초저지연 연산을 가능하게 해, 미래 자율주행 기술의 필수적인 하드웨어로 떠오르고 있다.
운전자의 마음을 읽으며 달리는 자율주행 자동차
자율주행 시 운전자가 긴장을 늦추는 ‘자율주행 이완’ 현상은 돌발 상황에 반응하는 속도를 떨어뜨림으로써 큰 문제가 될 수 있다.[8] 단조로운 고속도로를 달릴 때나 익숙한 길을 운전할 때, 우리 뇌는 자연스럽게 인지적 이완 상태에 빠지게 된다.
이 상태에서 시스템이 운전자에게 갑작스럽게 통제권을 넘기는 상황이 발생하면 운전자는 이에 재빨리 대처하기가 어렵다. 이는 단순한 부주의가 아니라, 인간의 인지적 한계에 해당한다.
이 문제를 해결하기 위해 운전자 상태 모니터링 시스템이 개발 중이다. 차량 내부에 뇌파(EEG) 센서, 눈동자 추적 센서, 표정 분석 카메라 등을 부착해 운전자의 상태를 관찰하고, 심박수 모니터링 기능 등도 사용된다. [9,10]
이러한 다중 센서 시스템은 운전자의 시선이 멍한지, 미세한 표정 변화로 스트레스를 받고 있는지, 혹은 심박수가 안정적인지 등을 종합적으로 파악한다. 운전자가 위험한 상태라고 판단되면 경고음과 함께 좌석에 진동을 주어 주의를 환기하거나, 차량의 속도를 자동으로 줄여 안전을 확보한다.
더 나아가, 운전자의 감정을 읽어 스트레스 완화에 도움이 되는 음악을 재생하거나 실내조명을 조절하는 등 정서적 교감까지 시도하며, 단순한 운전 보조를 넘어 운전자의 심리적 안정까지 책임지는 동반자가 될 수 있다.
탑승자의 감정 상태와 신체적 감각까지 고려하는 초지능 기술
초지능 무인자동차는 교통사고를 획기적으로 줄이고, 교통 체증을 해소하며, 우리를 더욱 자유롭게 해줄 것이다. 하지만 이 기술의 진정한 완성은 기계가 모든 것을 완벽하게 해내는 때가 아니라, 기계가 인간을 더 잘 이해하고 도울 때이다. 미래의 모빌리티는 기술 그 자체가 아니라, 기술이 인간에게 어떤 가치를 제공하는지에 초점을 맞추게 될 것이다.
아무리 똑똑한 차가 나와도 ‘이동’이라는 행위를 선택하고 그 경험을 느끼는 것은 결국 우리 자신이다. 미래의 자동차는 우리의 마음을 이해하고, 몸이 공간에서 어떻게 움직이고 있는지 느끼는 고유수용감각(Proprioception)을 극대화할 것이다. [11]
예를 들어, 곡선 도로를 지날 때 차체가 기울어지는 것을 미세한 진동으로 전달하여 탑승자가 움직임을 직접 느끼고 안정감을 얻도록 돕는다. 또한 ‘공동 운전(Collaborative Driving)’ 개념을 도입해 AI는 단조롭고 반복적인 운전을 담당하고, 인간은 복잡한 도심 주행이나 원하는 길을 선택하는 등의 판단 주체로서 역할할 수 있다. 이는 단순히 편의를 제공하는 것을 넘어, 우리의 감정 상태와 신체적 감각을 조화롭게 맞춰주는 파트너로서의 기술이다.
인공지능 시대에 더욱 중요해진 인간의 고유한 가치
AI가 뇌의 작동 원리를 모방하며 지능적 한계를 극복하는 시대에 우리에게 남겨진 가장 중요한 가치는 감성지능과 윤리적 판단력이다. AI는 복잡하고 정교한 업무를 자동화하겠지만, 인간의 감정을 이해하고 공감하며 복잡한 관계 속에서 협력하는 능력은 여전히 인간 고유의 영역으로 남을 것이다.
인공지능은 방대한 데이터를 분석하고 논리적으로 가장 효율적인 결론을 내린다. 하지만 이는 어디까지나 정해진 규칙 안에서의 판단일 뿐이다. 예를 들어, 피할 수 없는 사고 상황에서 보행자의 안전과 탑승자의 안전 중 무엇을 우선해야 하는지에 대한 윤리적인 가치 판단은 인공지능이 스스로 내릴 수 없다.
AI는 인간의 감정이나 윤리적 가치를 충분히 이해하지 못하기 때문이다. 자율주행 차 사고의 책임 문제, AI 챗봇의 부적절한 발언 등 기술 발전의 그림자는 결국 인간의 윤리적 책임감을 요구한다.
AI는 도구일 뿐 그 도구를 어떻게 사용하고, 그로 인해 발생한 문제에 어떻게 대처할지는 오직 인간의 몫이다. 인공지능 시대에 우리는 기술적 능력만큼이나 인간으로서의 가치와 윤리를 깊이 성찰하고 제도적 기준을 마련해야 한다. AI와 인간이 협력하는 새로운 사회로 나아가기 위해.
글_조용환 국가공인 브레인트레이너. 재미있는 뇌 이야기와 마음건강 트레이닝을 소개하는 유튜브 채널 ‘조와여의 뇌 마음건강’을 운영하고 있다.
참고문헌
[1] Jea Kwon, Sungjun Lim, Kyungwoo Song, C. Justin Lee (2025), “Brain-Inspired Lp-convolution benefits large kernels and aligns better with visual cortex.” Published as a conference paper at ICLR 2025.
[2] Jeonghwan Cheon, Sang Wan Lee, Se Bum Paik (2024), “Pretraining with random noise for fast and robust learning without weight transpor.” 38th Conference on Neural Information Processing, NeurIPS 2024.
[3] Dong Kyum Kim, Jea Kwon, Meeyoung Cha, C. Lee (2023), “Transformer as a hippocampal memory consolidation model based on NMDAR-inspired nonlinearity.” 37th Conference on Neural Information Processing, NeurIPS 2023.
[4] Elon Musk, "AI Day 2021 & 2022," Tesla, Inc., 2021-2022.
[5] Tesla, "Full Self-Driving," (https://www.tesla.com/ko_kr/support/full-self-driving.)
[6] Friston, K. J. (2009). "A predictive coding account of perception and attention." Philosophical Transactions of the Royal Society B: Biological Sciences, 364(1521), 1269-1290.
[7] Davies, M., et al. (2018). "Loihi: A Neuromorphic Manycore Processor with On-Chip Learning." IEEE Micro, 38(4), 82–99.
[8] Akopyan, F., et al. (2015). "TrueNorth: Design and Tool Flow for a 1-Million-Neuron Programmable Neurosynaptic Chip." IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 34(10), 1537-1557.
[9] Parasuraman, R., & Manzey, D. (2010). "Complacency and Bias in Human Use of Automation: An Overview of the Research." Human Factors: The Journal of the Human Factors and Ergonomics Society, 52(3), 381–410.
[10] Li, Y., et al. (2020). "Real-time driver fatigue detection with an integrated eye-tracking and ECG monitoring system." Journal of Medical Systems, 44(8), Article 142.
[11] De Visser, E. J., et al. (2016). "The future of human-robot teaming: A review of the role of trust, collaboration, and training." Human Factors and Ergonomics in Manufacturing & Service Industries, 26(1), 101–125.