
출처 : 챗GPT 생성 이미지
유럽방송연합(EBU)과 BBC가 공동으로 진행한 대규모 국제 연구에서, 챗GPT·제미나이·퍼플렉시티 등 주요 인공지능(AI) 어시스턴트들이 뉴스 콘텐츠를 전달하는 과정에서 핵심 정보를 잘못 전달하거나 왜곡하는 비율이 45%에 달하는 것으로 드러났다. 특히 이번 조사는 언어·국가·플랫폼을 막론하고 공통된 문제를 확인했다는 점에서 주목된다.
이번 연구는 이탈리아 나폴리에서 열린 EBU 뉴스 총회에서 발표됐다.
18개국 22개 공영방송이 참여해 14개 언어로 진행됐으며, 각국의 전문 기자들이 3,000건 이상의 AI 응답을 △정확성 △출처 표기 △사실과 의견 구분 △맥락 제공 등의 기준으로 평가했다. 조사 결과 전체 응답의 45%에서 ‘중대한 오류’가 발견됐고, 31%는 출처 표기가 누락되거나 잘못된 정보를 인용하는 등 심각한 문제를 보였다. 20%는 아예 사실과 다른 정보를 포함했으며, 구글 ‘제미나이’는 오류율이 76%에 달해 가장 낮은 평가를 받았다.

출처 : EBU 홈페이지
EBU 미디어 디렉터 장 필립 드 텐더는 “이 문제는 단순한 기술적 한계가 아니라 언어와 국경을 초월한 구조적 문제”라며 “뉴스에 대한 신뢰가 무너질 경우 민주주의 참여 자체가 위축될 수 있다”고 경고했다. BBC의 제너러티브 AI 프로그램 책임자 피터 아처 역시 “AI가 더 나은 정보를 제공하도록 발전하길 바라지만, 여전히 심각한 신뢰 문제가 남아 있다”고 말했다.
EBU와 BBC는 이번 결과를 바탕으로 ‘뉴스 무결성 툴킷(News Integrity Toolkit)’을 공개했다. 이 툴킷은 AI가 뉴스를 요약·전달할 때 어떤 기준을 충족해야 하는지, 그리고 어떤 오류를 바로잡아야 하는지를 구체적으로 제시한다. 또한 EBU는 유럽연합 및 각국 규제 당국에 정보 신뢰성 관련 법규를 엄격히 집행할 것을 촉구하며, AI 어시스턴트의 지속적인 독립 감시가 필요하다고 강조했다.
이번 연구에는 영국 BBC를 비롯해 독일 ARD·ZDF, 프랑스 라디오프랑스, 이탈리아 RAI, 캐나다 CBC, 스페인 RTVE 등 18개국 주요 공영방송이 참여했다. BBC가 올해 초 발표한 1차 연구 결과를 국제적으로 확장한 형태로, 언어와 시장을 초월해 동일한 문제가 반복된다는 점을 확인했다.
BBC가 별도로 실시한 이용자 인식 조사에서는 영국 성인 3분의 1 이상이 “AI 뉴스 요약을 신뢰한다”고 답했으며, 35세 이하 젊은 층에서는 절반 가까이가 AI를 믿는 것으로 나타났다. 그러나 실제로는 절반가량의 AI 뉴스가 왜곡된 정보에 기반해 있어, 전문가들은 “AI의 오류가 오히려 뉴스 브랜드 전반의 신뢰도 하락으로 이어질 수 있다”고 경고했다.
글 / 김지훈 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com












