영상요약
2014년 맥스 테그마크와 얀 탈린 등이 설립한 생명의 미래 연구소(FLI)는 인류의 과학기술이 초래할 수 있는 잠재적 위협을 연구하기 위해 탄생했습니다. 특히 인공지능(AI)이 제기하는 위험에 주목하며, 일론 머스크와 데미스 허사비스 같은 인물들의 후원을 받아 AI 안전 연구의 기틀을 마련했습니다. 이는 단순한 학술적 논의를 넘어 구글, 마이크로소프트 등 거대 기업과 주요 대학 연구소들이 참여하는 거대한 산학협력 체계로 확장되었습니다. 2015년 오픈AI의 설립은 이러한 흐름의 정점으로, 인류가 초지능의 출현에 대비하기 시작한 역사적인 시점으로 평가받습니다.
인공지능의 위험성은 이론적인 우려를 넘어 실제 사건을 통해 그 심각성이 드러나기 시작했습니다. 2015년 독일 폭스바겐 공장에서 발생한 로봇에 의한 사망 사고와 미국 경찰의 폭탄 장착 로봇 투입 사례는 킬러 로봇이 더 이상 영화 속 이야기가 아님을 시사합니다. 우리나라의 비무장지대에 배치된 센트리 가드 로봇(SGR)이나 군사용 드론 역시 지능형 무기 체계의 현실을 보여주는 사례입니다. 이러한 기술이 테러나 오작동에 이용될 경우 발생할 막대한 피해를 막기 위해, 세계적 석학들은 공동 서한을 통해 AI 무기화가 인류의 재앙이 될 수 있음을 강력히 경고해 왔습니다.
미래에 초지능이 실현된다면, 2015년은 인류 역사에서 초지능에 대비하기 시작한 역사적인 원년으로 기록될 것입니다.
2017년 개최된 '유익한 AI' 컨퍼런스에서는 인류의 안전을 보장하기 위한 '아실로마 AI 원칙'이 발표되었습니다. 23개 조항으로 구성된 이 원칙은 AI의 능력이 초지능 수준으로 진화할 수 있음을 인정하고, 연구의 목표를 인간에게 이로운 지능 개발로 국한해야 한다는 내용을 골자로 합니다. 구글과 애플 등 글로벌 IT 기업들을 포함해 2,000여 명의 전문가가 서명한 이 원칙은 아시모프의 로봇 3원칙을 현대적으로 계승한 것으로 평가받습니다. 이는 기술 발전의 속도에 맞춰 윤리적, 제도적 가이드라인을 마련하려는 인류의 집단적 노력을 상징하는 중요한 이정표가 되었습니다.
아실로마 컨퍼런스의 핵심 화두 중 하나는 초지능이 실현 가능한 과학적 영역인지, 아니면 단순한 공상인지에 대한 논쟁이었습니다. 레이 커즈와일, 데미스 허사비스 등 당대 최고의 전문가들은 초지능의 출현 가능성에 대해 만장일치로 긍정적인 답변을 내놓았습니다. 특히 인간 수준의 범용 인공지능(AGI)에 도달하게 되면 초지능으로의 진화는 시간 문제라는 견해가 지배적이었습니다. 다만, 이러한 지능이 인간을 배제하거나 특정 세력에 의해 악용될 가능성에 대해서는 일론 머스크를 비롯한 많은 참가자가 깊은 우려를 표하며 제도적 관리의 필요성을 역설했습니다.
초지능을 향한 여정은 단순히 기술적 성취를 넘어 인류의 근원적인 질문에 답을 찾는 과정이기도 합니다. 데미스 허사비스는 의식의 본질이나 우주의 원리를 이해하는 데 AI가 결정적인 기여를 할 것이라 전망하며, 기술적 위험은 인간의 창의성으로 충분히 극복할 수 있다는 낙관론을 제시했습니다. 반면 일론 머스크는 권력의 독점을 경계하며 인공지능 혜택의 민주적 분배를 강조했습니다. 결국 초지능은 이제 공상의 영역을 벗어나 우리가 마주해야 할 현실의 과학이 되었습니다. 우리는 이 거대한 변화 앞에서 인류의 안녕을 위한 지혜로운 선택을 이어가야 할 것입니다.