출처 : 오픈AI 뉴스룸
오픈AI가 청소년 사용자 보호와 이용자의 자유, 그리고 프라이버시 사이의 균형을 두고 내린 결정과 원칙을 공개했다.
16일(현지 시간) 자사 뉴스룸을 통해 오픈AI는 인공지능(AI)과의 대화가 점점 더 개인적이고 민감한 내용을 포함하게 되는 만큼, 이러한 대화 기록은 의사 상담이나 변호사 자문처럼 높은 수준의 보호가 필요하다고 강조했다. 회사는 정책 입안자들과 협력해 AI 대화 역시 법적·사회적으로 특별히 보호받아야 한다는 점을 적극적으로 주장한다고 밝혔다.
또한, 오픈AI는 이용자 데이터가 안전하게 지켜지도록 고도화된 보안 기능을 개발 중이다. 다만 자살, 타인에 대한 위해, 대규모 사이버 보안 위협 등 심각한 위험 상황이 발생할 경우에는 자동화된 시스템 감지 후 인적 검토가 이뤄질 수 있다고 설명했다.
자유에 대한 원칙도 제시됐다.
오픈AI는 “성인 이용자는 성인으로 대우한다”는 내부 원칙 아래, 모델을 이용자가 원하는 방식으로 최대한 자유롭게 활용할 수 있도록 한다는 방침이다. 다만 이는 타인에게 해를 끼치지 않는 범위 내에서만 가능하다. 예를 들어 성인 이용자가 소설 속 자살 장면을 묘사하는 데 도움을 요청하면 지원하지만, 자살 방법을 직접 안내하는 일은 차단된다.
반면 청소년의 경우 '안전'이 최우선 원칙으로 적용된다. 오픈AI는 18세 미만 이용자에게는 프라이버시나 자유보다 안전을 우선시한다고 밝혔다. 이를 위해 연령 추정 시스템을 개발해 사용 패턴을 기반으로 나이를 예측하고 있으며, 애매한 경우에는 ‘청소년 모드’를 기본 적용한다. 일부 국가에서는 신분증 확인을 요구할 수도 있다.
출처 : 챗GPT 생성 이미지
청소년 이용자에게는 성인과 다른 규칙이 적용된다. 예컨대 연애 감정을 담은 대화나 자살·자해 관련 이야기는 창작 목적이라도 허용하지 않는다. 또 실제로 자살 충동을 보이는 미성년자가 발견될 경우 부모에게 알리거나, 부모와 연락이 되지 않으면 당국에 즉시 신고한다는 방침이다.
오픈AI는 “자유, 프라이버시, 안전이라는 원칙들이 서로 충돌할 수 있고 이에 대해 모두가 동의하지는 않을 것”이라면서도, “전문가와의 논의를 거쳐 내린 결정을 투명하게 공유하는 것이 최선”이라고 밝혔다.
오픈AI의 이런 적극적 조치는 지난 4월 캘리포니아에서 일어난 청소년 자살사건이 큰 영향을 미친 것으로 추정된다. 부모측 주장에 따르면 해당 청소년은 ChatGPT와의 장기간 대화 속에서 자신의 자살 충동을 표현했고, 챗봇이 이를 검증하고 자살 방법에 대한 구체적인 정보를 제공했다.
현재 청소년의 부모는 오픈AI와 샘 알트먼을 고소한 상태이다.
글 / 김지훈 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com