지난 2024년 10월 스톡홀름 노벨위원회는 물리학상과 화학상 수상자로 인공지능(AI) 관련 연구자들을 선정했다. 이는 AI 기술이 과학계에서 본격적으로 인정받게 된 역사적인 순간이다. 이에 관해 네이처(Nature)는 AI 기술의 의료 분야 혁신 가능성과 잠재적 위험성을 심층 분석하며, AI가 가져올 의료계 혁신과 윤리적 과제를 동시에 조명했다.
2024년 노벨 물리학상은 존 홉필드(John J. Hopfield)와 제프리 힌튼(Geoffrey E. Hinton) 전 구글(Google) 연구원에게 수여됐다. 이들은 "인공 신경망을 통한 기계학습을 가능하게 하는 근본적인 발견과 발명"을 인정받았다.
홉필드는 정보를 저장하고 재구성할 수 있는 연상 메모리 구조인 '홉필드 네트워크(Hopfield Network)'를 발명했다. 힌튼은 이를 발전시켜 데이터에서 자율적으로 특성을 발견할 수 있는 '볼츠만 머신(Boltzmann Machine)'을 개발했다. 이러한 발견은 오늘날 챗GPT(ChatGPT)와 같은 AI 기술의 근간이 됐다.
노벨 화학상은 데이비드 베이커(David Baker)가 절반을, 데미스 하사비스(Demis Hassabis)와 존 점퍼(John M. Jumper) 딥마인드(DeepMind) 연구원이 나머지 절반을 수상했다. 하사비스와 점퍼는 알파폴드2(AlphaFold2)라는 AI 모델을 개발해 단백질 구조 예측 분야에서 혁신을 이뤄냈다.
네이처는 알파폴드2가 2억 개 이상의 단백질 구조를 정확하게 예측할 수 있는 잠재력을 가지고 있다고 평가했다. 이는 질병 연구, 신약 개발, 항생제 내성 문제 해결 등 다양한 의료 분야에서 혁신을 가져올 것으로 기대된다.
AI 기술은 이미 암 검진, 통증 치료, 당뇨병 관리 등 임상 진료에서 효과를 입증하고 있다. 그러나 힌튼은 2023년 구글을 사임하면서 AI 기술의 잠재적 위험성을 경고했다.
네이처 역시 AI가 의료 분야에서 가져올 수 있는 혁신적 발전에도 불구하고 몇 가지 중요한 위험 요소들을 지적했다. 소외계층에 대한 알고리즘 편향성으로 인한 의료 불평등, AI 과신으로 인한 의료사고 위험, 의사-환자 관계의 비인간화, 환자 정보 유출 등 사이버보안 문제가 주요 과제로 꼽혔다.
네이처는 "AI 기술의 안전하고 책임 있는 발전을 위해서는 투명성 원칙과 인간 중심 가치를 준수하는 것이 핵심"이라며 "이는 앞으로 의료 분야에서 AI 기술을 발전시키는 데 있어 가장 중요한 과제가 될 것"이라고 강조했다.
해당 기사의 원문은 링크에서 확인할 수 있다.
기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
AI Matters 뉴스레터 구독하기