[강연] 최적화 이론, 인공지능 시대에 비상하다 2_by 권도현 | 2024 카오스강연 '세상에 나쁜 수학은 없다' 시즌2 8강 두 번째 이야기 | 8강 ②
인공지능 학습의 핵심은 최적의 해를 찾는 과정이며, 이를 위해 확률적 경사하강법(SGD)이라는 기법이 널리 사용됩니다. 기존의 경사하강법이 단순히 가장 가파른 내리막길만을 따라갔다면, 확률적 경사하강법(SGD)은 약간의 무작위성을 부여하여 탐험을 시도합니다. 이러한 무작위성은 학습 과정에서 마주치는 지역 최소해라는 웅덩이에서 벗어날 수 있는 기회를 제공합니다. 때로는 조금 돌아가거나 오르막을 오르는 선택이 결국 더 깊고 낮은 최적점을 찾는 열쇠가 되기도 하며, 이는 복잡한 함수 구조를 가진 인공지능 모델에서 필수적인 전략입니다. 방대한 데이터를 다루는 현대 인공지능에게 효율성은 필수적인 요소입니다. 모든 데이터를 한꺼번에 계산하여 미분하는 방식은 시간과 자원 면에서 불가능에 가깝기 때문입니다. 확률적 경사하강법(SGD)은 데이터를 작은 단위로 쪼개어 학습시키는 방식을 통해 이 문제를 해결합니다. 예를 들어 백만 개의 데이터가 있다면 이를 만 개씩 나누어 순차적으로 학습하며 모델을 업데이트합니다. 이러한 방식의 학습은 연산 속도를 획기적으로 높일 뿐만 아니라, 실제 성능 면에서도 매우 우수한 결과를 보여준다는 것이 여러 사례를 통해 증명되었습니다. 생성형 인공지능의 비약적인 발전 뒤에는 적대적 생성 신경망(GAN)과 같은 정교한 구조가 자리 잡고 있습니다. 이는 생성자와 판별자라는 두 개의 네트워크가 서로 경쟁하며 발전하는 방식입니다. 생성자가 실제와 유사한 이미지를 만들어내면, 판별자는 그것이 진짜인지 가짜인지 구분하려 노력합니다. 이 과정에서 생성자는 판별자를 속이기 위해 더욱 정교한 결과물을 만들어내고, 판별자는 이를 더 잘 잡아내기 위해 날카로워집니다. 이러한 상호 작용은 결국 인공지능이 실사에 가까운 고품질의 데이터를 생성할 수 있게 만드는 강력한 원동력이 됩니다. 수학적 관점에서 생성 모델의 목표는 실제 데이터의 확률 분포와 모델이 생성한 분포 사이의 차이를 최소화하는 것입니다. 이를 위해 최적 운송 이론에서 유래한 '와서스타인 거리'라는 개념이 활용됩니다. 이는 진흙을 구멍에 채우는 택배 문제처럼, 한 분포를 다른 분포로 옮기는 데 드는 최소 비용을 계산하는 방식입니다. 2017년경 정립된 이 이론적 토대는 인공지능이 단순히 데이터를 흉내 내는 수준을 넘어, 수학적으로 정교하게 최적화된 상태에 도달할 수 있도록 돕는 중요한 이정표가 되었으며 대학원생의 연구가 혁신을 일으킨 사례로도 유명합니다. 최근에는 노이즈 상태에서 단계적으로 이미지를 복원해 나가는 확산 모델(Diffusion Model)이 생성형 인공지능의 대세로 떠오르고 있습니다. 이는 한 번에 결과를 내기보다 시간을 쪼개어 미세하게 조정해 나가는 방식으로, 더욱 정밀한 제어가 가능하다는 장점이 있습니다. 인공지능은 이제 아기가 세상을 배우듯 비지도 학습에서 언어 학습으로, 그리고 더 복잡한 추론의 단계로 진화하고 있습니다. 이러한 발전은 인간의 고유 영역이라 여겨졌던 창작과 전문 지식의 영역까지 확장되며 우리 삶의 패러다임을 근본적으로 바꾸고 있으며, 로보틱스와 같은 물리적 영역으로의 확장도 기대되고 있습니다.
![[강연] 최적화 이론, 인공지능 시대에 비상하다 2_by 권도현 | 2024 카오스강연 '세상에 나쁜 수학은 없다' 시즌2 8강 두 번째 이야기](https://i.ytimg.com/vi/zkwdJj8qgpU/maxresdefault.jpg)
![[강연] 최적화 이론, 인공지능 시대에 비상하다 1_by 권도현 / 2024 카오스강연 '세상에 나쁜 수학은 없다' 시즌2 8강 첫 번째 이야기](https://i.ytimg.com/vi/gkNDL4lkrmc/maxresdefault.jpg)
![[강연] 2018 필즈상 해설 강연 1일차(KAOS, 고등과학원, 수학동아) _ 박지훈, 하승열 교수](https://i.ytimg.com/vi_webp/d9WWxFjCay4/maxresdefault.webp)