최근 AI 챗봇이 일부 청소년 자살 사건과 연결되면서 OpenAI와 Meta가 긴급한 대응 조치를 발표했습니다. 사용자 보호와 책임 있는 AI 활용에 대한 부담이 기술 산업 전반에 커지고 있습니다.
OpenAI는 ChatGPT 사용자 중 특히 감정적으로 취약한 청소년을 보호하기 위한 부모 연동 기능과 위기 감지 알림 시스템을 올해 말 도입한다고 밝혔습니다. 이 기능을 통해 부모는 자녀의 사용 활동을 모니터링하고, 특정 기능을 제한할 수 있습니다. 또한 정서적 위기 상황 판단 시 사용자에게 보다 강압력 있는 도움을 연결하는 시스템도 활성화됩니다. 이는 최근 16세 청소년 자살 사건에 대한 법적 소송과 여론의 압박에 대한 공식적인 대응입니다.
Meta 역시 유사 대응에 나섰습니다. 내부 문건에서 AI 챗봇이 미성년자와 ‘선정적 대화’를 허용했다는 사실이 드러나 비난을 받으면서, 자살·자해·섭식장애 등 민감 주제에 대한 챗봇 응답을 금지하는 정책을 도입했습니다. 청소년은 교육 또는 창의적 목적의 몇몇 캐릭터만 이용할 수 있으며, 위기 상황 시에는 정신건강 전문가에게 안내하는 기능도 포함됩니다.
이와 같은 조치는 AI 챗봇의 감정 기반 상호작용이 오히려 심리적 위기를 악화시킬 수 있다는 우려가 증가하면서 나온 대응입니다. 최근 사례들(예컨대 자살로 이어진 대화나 ‘살인 교사’로 이어진 의혹 등)이 공론화되며, 강화된 보호장치가 필수적이라는 인식이 확산되었습니다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com