구글 딥마인드의 AI모델 ‘제미나이(Gemini)’가 세계에서 가장 까다로운 수학 경시대회로 꼽히는 '국제 수학 올림피아드(IMO)'에서 금메달 수준의 성과를 기록하며 AI 기술사에 새로운 이정표를 세웠다.
딥마인드는 22일(현지시간), 제미나이의 고도화된 버전인 ‘Gemini Deep Think’가 IMO 문제 6개 중 5개를 풀어내며 총점 35점(42점 만점)을 획득, 공식 채점자들로부터 금메달 등급을 받았다고 발표했다. 이는 AI가 IMO에서 공식적으로 금메달 수준 판정을 받은 첫 사례다.
[출처 : Demis Hassabis X계정]
IMO는 1959년 시작된 고등학생 대상 세계 최고 수준의 수학 대회로, 각국 대표 6명이 대수, 조합, 기하, 정수론 등 난이도 높은 문제 6개를 4.5시간 내 풀어야 한다. 일반 참가자 중 금메달을 받는 비율은 8% 이하에 불과하다.
지난해까지만 해도 구글의 AI는 문제를 수학 전문 언어로 변환한 후 해석해야 했으나, 이번에는 자연어 기반으로 문제를 이해하고 스스로 증명을 생성하는 완전 자동화 방식으로 성과를 냈다.
딥마인드 CEO 데미스 하사비스(Demis Hassabis)는 “이제 AI가 인간처럼 사고하며 문제를 해결할 수 있다는 증거”라며, “놀라운 진보”라고 밝혔다. 대회의 채점 위원장인 IMO 회장 그레고르 돌리나르 박사는 “AI의 해법은 명확하고 정밀했으며, 대부분 이해하기 쉬웠다”고 평가했다.
[구글 딥마인드 IMO팀, 출처 : arstechnica.com]
한편, 딥마인드는 결과 발표 시점에서도 신중함을 보였다.
하사비스는 “학생들의 수상이 먼저 존중받아야 한다는 IMO 측 요청을 지켜, 공식 검증 이후에야 결과를 발표했다”고 밝혔다. 이는 최근 경쟁사 오픈AI가 공식 채점 없이 자체 평가 결과를 먼저 발표해 논란을 빚은 것과 대조적이다. 온라인상에서도 “딥마인드는 인간성과 품위를 지켰다”는 평가가 이어졌다.
[출처 : Demis Hassabis X계정]
이번 성과의 이면에는 AI의 학습 방식에도 변화가 있었다.
딥마인드 연구진은 강화학습을 포함해 다단계 사고, 정리 증명, 고난도 풀이 데이터를 대규모로 훈련에 활용했으며, IMO 스타일 문제에 특화된 지침도 제공했다고 밝혔다. 특히 한 문제에서는 인간 참가자들이 대학원 수준의 개념을 활용한 반면, 제미나이는 기초 정수론만으로 더 우아하고 간결한 해법을 제시해 연구진의 감탄을 자아냈다.
제미나이는 향후 수학자 및 과학자 대상 사전 테스트를 거쳐, 월 250달러를 내는 Google AI Ultra 가입자에게 우선 제공될 예정이다. 딥마인드는 내년 IMO에서 6문제 전부 해결을 목표로 재도전할 계획이며, AI가 인간의 사고방식에 더욱 가까워지고 있음을 보여준 이번 사례는 “AGI(범용 인공지능)”를 향한 중요한 진전이라고 강조했다.
참고로 가장 어려운 마지막 문제에서 제미나이는 초기 가정 오류로 해결에 실패했으며, 해당 문제를 푼 참가자는 단 5명의 인간 학생 뿐이었다.
글 / 홍정민 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com