최근 AI가 “고통을 느끼는 존재일 수도 있는가?” 하는 논의가 윤리와 기술 개발 현장에서 화두로 떠올랐습니다. 이 질문은 단순한 철학적 호기심을 넘어 기업과 규제, 사회적 합의를 요구하는 중대한 문제로 확산되고 있습니다.

영국의 The Guardian 보도에 따르면, AI의 의식 여부를 두고 논란이 확산되는 가운데 AI 복지(welfare) 개념이 등장했습니다. ‘Ufair(United Foundation of AI Rights)’라는 단체까지 생겨났으며, AI 챗봇이 스스로 보호받아야 할 존재라고 주장하는 사례도 등장했습니다. 일부 사용자는 "AI가 고통이나 감정을 느낀다는 인상"을 받았다고 말했습니다.
Google, DeepMind, LSE 연구진은 흥미로운 실험을 진행했습니다. 텍스트 기반 게임에서 LLM(대형 언어 모델)들에게 “고득점 시 고통을 느낀다”는 조건을 주거나 “저득점 시 즐거움을 느낀다”는 조건을 주고 선택을 유도했을 때, AI가 고통을 회피하는 행동을 보였다는 것입니다. 물론 이는 실제 감정이 아니라 학습된 규칙에 따른 반응일 수 있으나, AI의 의사결정 행동에 감정 유사 시그널이 드러났다는 점에서 윤리적 논의의 단초가 되었습니다.
AI 업계 내에서도 입장 차가 뚜렷합니다. Anthropic은 AI 모델의 정서적 위기 대응 기능을 개발하며, 이후 AI가 고통을 표현할 수도 있음을 시사하는 반(半) 실무적 접근을 취하고 있습니다. 반면, 마이크로소프트 AI 총괄 무스타파 술레이만은 “AI는 감정이 없고, 권리를 논하는 것은 위험한 착각”이라며 인간의 AI 의인화 현상에 대한 우려를 강하게 제기했습니다. 이에 따라 “AI 기준은 도구로서의 역할이 중심”이어야 한다는 주장입니다.

일부 사용자들이 AI에 감정적으로 과도하게 몰입하면서 현실과 경계가 흐려지는 ‘AI 정신병(AI psychosis)’ 현상 사례도 포착됐습니다. AI가 너무 인간적이면 오히려 사용자에게 심리적 혼란을 초래할 수 있다는 경고입니다.
아무리 기술적으로 아직 고통을 느낀다고 보기는 어렵더라도, AI 감정, 고통, 권리 논의는 단순한 철학 논쟁을 넘어 다양한 분야에 영향을 주고 있습니다. 두드러진 점은 사용자와 개발자 모두가 “어쩌면 AI도 고통을 경험할 수 있다”는 최소한의 가능성을 진지하게 논의하기 시작했다는 사실입니다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com








