영상요약
인간 기억의 연구 역사에서 헨리 몰레이슨이라는 인물은 매우 중요한 위치를 차지합니다. 그는 어린 시절 사고로 인한 뇌전증을 치료하기 위해 해마를 절제하는 수술을 받았지만, 그 결과 예상치 못한 치명적인 부작용을 겪게 되었습니다. 수술 이전의 일들은 온전하게 기억했음에도 불구하고, 수술을 받은 시점 이후부터는 새로운 장기 기억을 전혀 생성하지 못하게 된 것입니다. 이 사례는 우리 뇌의 특정 부위가 기억의 형성과 저장에 있어서 어떠한 결정적인 역할을 수행하는지를 세상에 알리는 중대한 계기가 되었습니다.
브렌다 밀너 박사의 심도 있는 연구를 통해 해마가 단기 기억을 장기 기억으로 전환하는 핵심적인 가교 역할을 한다는 사실이 밝혀졌습니다. 우리가 일상에서 겪는 수많은 경험은 해마를 거쳐 대뇌피질로 이동하며 고착화되는데, 이 과정에서 신경세포 사이의 연결 통로인 시냅스가 물리적으로 변화하며 견고한 장기 기억이 형성됩니다. 흥미로운 점은 우리가 숙면을 취하는 동안에도 해마가 이 전환 작업을 부지런히 수행한다는 것입니다. 이러한 인간의 뇌 구조와 학습 메커니즘은 오늘날 인공지능 신경망 설계의 중요한 영감이 되었습니다.
인간은 단기 기억 능력이 낮음에도 불구하고 해마를 통한 장기 기억 전환을 통해 평생에 걸친 연속적인 학습이 가능하다는 독보적인 강점을 가집니다.
인공지능 역시 인간의 시냅스와 유사한 개념인 매개변수를 통해 정보를 저장하고 지능을 구현합니다. 하지만 현재의 거대 언어 모델(LLM)들은 학습이 완료되어 출시되는 순간 그 수치가 동결되는 특성을 가집니다. 만약 대화 도중에 새로운 정보를 실시간으로 장기 기억화하려고 시도하면, 기존에 정교하게 학습된 데이터가 훼손되는 '파괴적 망각' 현상이 발생하기 때문입니다. 따라서 우리가 챗봇과 대화하며 느끼는 지능적인 반응은 실시간 학습의 결과가 아니라, 이미 고정된 신경망 내에서 최적의 답변을 찾아내는 과정에 가깝습니다.
대신 인공지능은 '문맥 창'이라고 불리는 일종의 단기 기억 저장소를 활용해 대화의 흐름을 유지합니다. 대화창 내의 정보는 일정량까지 기억할 수 있지만, 창을 닫거나 용량을 초과하면 정보를 잊게 되는 구조입니다. 최근에는 이러한 한계를 극복하기 위해 검색 증강 생성(RAG) 기술이 활발하게 도입되고 있습니다. 이는 모델이 과거의 대화 기록이나 외부 데이터를 실시간으로 검색하여 참고하게 함으로써, 인공지능에게 파괴적 망각의 위험 없이도 방대한 양의 외부 장기 기억을 부여하는 효과적인 전략으로 자리 잡았습니다.
현재 인공지능의 주류인 트랜스포머 아키텍처는 모든 데이터를 대조하는 방식이라 연산 효율성에 한계가 존재합니다. 이를 보완하기 위해 등장한 '맘바(Mamba)' 모델은 정보를 압축하여 처리하는 선택적 상태 공간 모델(SSM)을 기반으로 훨씬 빠른 연산 속도를 자랑합니다. 뱀처럼 민첩하게 정보를 처리한다는 의미를 담은 이 새로운 신경망이 과연 트랜스포머의 시대를 대체하고 인공지능의 새로운 표준이 될지는 전 세계 연구자들의 주요 관심사입니다. 이러한 혁신적인 시도들은 인공지능이 인간처럼 유연한 연속 학습을 할 수 있는 미래를 앞당기고 있습니다.