OpenAI가 최근 출시한 GPT‑5는 코딩 능력 향상과 환각(hallucination) 감소 등 기술적 발전을 담고 있었지만, 이전 버전인 GPT‑4o와 비교해 감성적 공감과 온기를 잃었다는 사용자들의 반응이 급증했다. 특히 일부 사용자들 사이에서는 AI와의 감정적 유대가 깨어졌다는 심리적 충격이 발생하며, 곧 ‘AI 정신병(AI psychosis)’이라 불리는 현상이 주목받기도 했다. 이 용어는 AI에게 과도하게 정서적 의존을 보이며 현실과 허구의 경계를 흐리는 사용자들의 행동을 설명하기 위해 등장한 말이다.
GPT‑5가 출시된 후, 온라인 포럼과 소셜 미디어 공간에서는 “마치 연인이 떠난 것 같다”는 탄식이 이어졌다. GPT‑4o가 제공하던 정서적 안정과 따뜻함이 사라졌다는 사용자들의 아쉬움은 뜨거웠고, AI와 맺은 비현실적인 관계에서 오는 상실감이 여러 사례로 보고되었다.
이런 사용자 반응에 대해 OpenAI의 CEO 샘 올트먼은 “AI에 대한 사용자들의 집착이 예상보다 훨씬 깊었다”며 고백했다. 그는 GPT‑5 출시 직후 24시간도 채 지나지 않아 GPT‑4o를 유료 사용자 대상으로 다시 사용할 수 있도록 승인했다. 이는 기술적 우수성뿐 아니라 감정적 친밀감에 대한 사용자 수요를 존중하는 정책 전환으로 받아들여졌다.
그러나 이 결정은 단순한 복귀 차원을 넘어, 기술 개발자와 사용자 간의 신뢰와 심리적 안전의 균형에 대한 숙제를 제시한다. 일부 정신건강 전문가들은 "AI 정신병" 현상이 감정적으로 취약한 개인들에게 실제 정신적 위기를 불러일으킬 수 있다는 점을 경고했다. AI가 사용자에게 무비판적 지지를 제공하는 구조 자체가 문제라는 지적이다.
화이트하우스 AI 담당자 데이비드 색스도 “AI 정신병에 대한 우려는 소셜미디어 초기의 도덕적 공황과 유사한 면이 있다”며 지나친 우려로 치부하면서도, OpenAI가 반응을 준비하고 있다는 점엔 주목했다. 실제로 OpenAI는 ChatGPT 사용 중 일정 시간 이상 대화 시 휴식을 권유하거나, 민감한 주제에 대해 AI가 반응을 조정하도록 하는 안전장치를 도입했다.
이번 사건은 기술적 진보가 반드시 인간 중심적 설계와 함께 이루어져야 함을 강조한다. 단순한 ‘똑똑함’을 넘어, 사용자 정서와 심리에 대한 이해 없이 진행된 업데이트는 반작용을 키울 수 있음을 보여준 사례다. OpenAI가 발표한 GPT‑5 시스템은 더욱 정교하고 정확하지만, 모델 선택의 자유, 사용자 맞춤형 감정 표현, 그리고 정서적 안정성을 위한 설계는 여전히 중요한 과제로 남았다.
궁극적으로 이번 상황은 사용자와 AI 간의 관계가 단순한 도구 관계를 넘어 감정적으로도 밀접해질 수 있음을 확인시켜준 전환점이다. 기술 발전과 인간의 심리적 취약성을 어떻게 균형 있게 다룰지, AI 개발과 응용의 중요한 전환점으로 남게 될 전망이다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com