생성형 인공지능(AI)의 발전과 함께 미디어 산업 전반에 변화의 바람이 불고 있지만, AI가 작성한 뉴스 콘텐츠가 오히려 독자들에게 혼란을 초래하고 있다는 연구와 보도가 잇따르고 있다.
독일 루트비히-막시밀리안 대학교(LMU)의 연구에 따르면, AI가 생성한 뉴스 기사는 인간 기자가 작성한 기사보다 이해하기 어렵다는 평가를 받았다. 주요 원인은 문장 구조의 비자연스러움, 부적절한 단어 선택, 수치 정보 사용의 불분명함이다. 특히 복잡한 사회·정치 이슈나 경제 지표 관련 기사에서 이 같은 문제가 두드러졌다.
ScienceDaily에 실린 또 다른 연구 결과도 이를 뒷받침한다. 연구진은 AI 생성 기사의 전반적인 문맥 이해도가 낮으며, 독자들의 정보 습득 효율에 부정적인 영향을 미친다고 분석했다. 이는 단순히 문장력의 문제가 아니라, AI가 정보를 서술하는 방식 자체가 인간의 사고 구조와 괴리가 있다는 점을 시사한다.
BBC의 자체 실험에서도 주요 AI 챗봇들이 시사 문제에 대해 오답 또는 과장된 정보를 제공하는 사례가 적지 않다는 점이 밝혀졌다. ChatGPT, Gemini, Perplexity 등은 모두 실제 뉴스와 어긋나는 설명을 하거나, 정치적 중립성을 유지하지 못하는 경향을 보였다. 이는 AI가 생성한 뉴스가 단지 정확성뿐만 아니라 정보 신뢰성 측면에서도 문제가 있다는 점을 부각시킨다.
미디어 내부에서도 부작용은 현실화되고 있다. Cosmos 매거진은 AI로 작성된 기사 도입 후 내부 직원 및 기고자들과의 신뢰 문제가 발생했으며, 일부 콘텐츠는 잘못된 과학 정보를 포함해 독자 신뢰를 저해했다는 비판에 직면했다. 투명성 부족은 결국 브랜드 이미지에도 악영향을 미쳤다.
한편, 콘텐츠 플랫폼 Medium 역시 AI 생성 콘텐츠의 범람으로 품질 관리의 어려움을 겪고 있다. Wired의 보도에 따르면, AI 기반 글이 사용자 피드에 무차별적으로 노출되면서 독자들이 피로감을 느끼고 있다는 반응이 늘고 있다.
전문가들은 생성형 AI를 언론 및 콘텐츠 산업에 적용할 때, 단순히 '속도'와 '비용 절감'에만 초점을 둘 것이 아니라 '이해도', '정확성', '신뢰성'이라는 미디어 본질의 요소를 우선시해야 한다고 강조한다. 결국 AI 시대의 언론은 기술과 책임의 균형 위에 서 있어야 한다는 교훈을 던지고 있다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com