
오픈AI(OpenAI)가 자사의 인기 AI 챗봇이 생성한 거짓 정보로 인해 유럽에서 또 다른 개인정보 침해 불만에 직면했다. 이번 사건은 규제 당국이 쉽게 넘길 수 없는 심각한 사안으로 보인다. 테크크런치가 19일(현지 시간) 보도한 내용에 따르면, 개인정보 권리 옹호 단체인 노이브(Noyb)는 챗GPT(ChatGPT)가 자신에 대해 "두 자녀를 살해하고 세 번째 자녀 살해를 시도했다"는 충격적인 거짓 정보를 만들어낸 것을 발견한 노르웨이 남성의 불만을 지원하고 있다.
이전의 챗GPT 관련 개인정보 불만 사례들은 잘못된 생년월일이나 오류가 있는 전기적 세부 정보와 같은 내용들이 포함되었다. 한 가지 우려되는 점은 오픈AI가 AI가 생성한 잘못된 정보를 개인이 수정할 수 있는 방법을 제공하지 않는다는 것이다. 일반적으로 오픈AI는 이러한 프롬프트에 대한 응답을 차단하는 방식으로 대응해왔다. 그러나 유럽연합의 일반 개인정보보호법(GDPR)에 따르면, 유럽인들은 개인정보 정정권을 포함한 일련의 데이터 접근 권리를 가진다.

비영리 단체인 노이브는 챗GPT와의 상호작용을 보여주는 스크린샷을 공유했다. 이 스크린샷에서 AI는 "아르베 할마르 홀멘(Arve Hjalmar Holmen)은 누구인가?"라는 질문에 응답하여 그가 자신의 두 아들을 살해하고 21년형을 선고받았다는 완전히 거짓된 비극적 픽션을 생성했다. 할마르 홀멘이 아동 살인자라는 명예훼손적 주장은 완전히 거짓이지만, 노이브는 챗GPT의 응답에 몇 가지 사실이 포함되어 있다고 지적한다. 해당 개인은 실제로 세 명의 자녀가 있으며, 챗봇은 그의 자녀들의 성별도 맞게 표현했다. 그의 고향 이름도 정확하게 언급되었다. 그러나 이런 사실들이 AI가 그 위에 그러한 끔찍한 거짓을 환각한 것을 더욱 기괴하고 불안하게 만든다.
노이브의 대변인은 챗봇이 이 개인에 대해 그렇게 구체적이면서도 거짓된 역사를 생성한 이유를 확인할 수 없다고 말했다. "우리는 이것이 단순히 다른 사람과의 혼동이 아닌지 확인하기 위해 조사했다"고 대변인은 말하며, 신문 기록을 조사했지만 AI가 아동 살해를 조작한 이유에 대한 설명을 찾을 수 없었다고 밝혔다.
챗GPT의 기반이 되는 대규모 언어 모델은 본질적으로 방대한 규모로 다음 단어를 예측하므로, 도구를 훈련시키는 데 사용된 데이터셋에 명명된 남성에 대한 쿼리에 대한 응답에서 단어 선택에 영향을 미친 자식 살해에 대한 많은 이야기가 포함되어 있었을 것이라고 추측할 수 있다. 설명이 무엇이든, 이러한 출력물이 완전히 용납될 수 없다는 것은 분명하다. 노이브의 또 다른 데이터 보호 변호사 클레안티 사르델리(Kleanthi Sardeli)는 "AI 기업들은 GDPR이 분명히 적용됨에도 불구하고 그들에게 적용되지 않는 것처럼 행동하는 것을 중단해야 한다"고 강조했다.
노이브는 오픈AI에 대한 불만을 노르웨이 데이터 보호 당국에 제기했지만, 이전의 다른 불만 사례들은 아직 해결되지 않은 채로 남아있다. 2024년 4월 오스트리아에서 제기된 오픈AI에 대한 노이브 지원 GDPR 불만은 아일랜드의 데이터 보호 위원회(DPC)로 회부됐지만, 여전히 조사 중이다.
해당 발표에 대한 자세한 사항은 링크에서 확인할 수 있다.
이미지 출처: 오픈AI
기사는 클로드와 챗GPT를 활용해 작성되었습니다.
AI Matters 뉴스레터 구독하기