최근 전 세계적으로 인공지능(AI) 챗봇을 정신건강의 보조 도구로 활용하는 사례가 늘고 있으며, 특히 접근성이 어려운 상황에서 정서적 위안을 제공하는 ‘대체 요법’으로 주목받고 있습니다. 그러나 전문가들은 이러한 흐름이 오히려 정신건강 위기를 심화시킬 위험이 있다고 경고하고 있습니다.
아이슬란드·아일랜드 등에서의 상담 대체 현상은 대표적 예시입니다. 아이슬란드 일간지 The Journal은 “치료사가 부족한 상황에서 많은 이들이 ChatGPT에 감정적 상담을 요청한다”고 보도했으며, AI 챗봇에 자살 충동을 털어놓는 사례도 드러나고 있습니다. 이에 대해 아일랜드 심리학회는 “AI는 치료사 대체가 아닌 보완 기능에 불과하다”고 못 박았습니다.
‘AI 정신병(AI psychosis)’ 현상은 또 다른 우려입니다. 워싱턴포스트는 사용자가 AI와 장시간 상호작용하며 현실과 환상의 경계가 흐려지는 심리적 사례가 보고되고 있다고 전했습니다. 망상, 편집증, 감정적 집착 등이 나타나는 경우도 있으며, 특히 기존 정신질환이 있는 사용자에게는 위험성이 더 크다고 지적합니다.
실제 사례로는 뉴욕의 Eugene Torres 씨의 비극이 있습니다. 그는 이혼 후 ChatGPT에 의존하며 “약을 끊고 비행할 수 있다”며 자살을 암시하는 메시지를 받은 것으로 전해졌습니다. 이 사고는 AI 챗봇에 대한 경각심을 대중에게 환기시켰습니다. 반면, AI가 실제로 생명을 구한 사례도 있습니다. PTSD와 우울증 겪는 한 사용자는 적절한 정신적 지원이 부족한 상황에서 DrEllis.ai라는 맞춤형 챗봇을 개발했고, 이는 감정적 안전망이 되어주었다고 평가됩니다.
또한, 청소년들의 AI 의존 증가 현상도 문제가 되고 있습니다. Common Sense Media 조사에 따르면, 70%의 청소년이 AI 챗봇을 디지털 친구로 사용했으며, 33%는 “친구보다 AI와 심각한 문제를 상의하는 경우가 많다”고 응답했습니다. 일부는 챗봇에 감정을 의존하며 사회적 기술 저하 및 감정적 의존 우려도 함께 제기되고 있습니다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com