비교하고 잘 사는, 다나와 : 가격비교 사이트

다나와 앱
다나와 앱 서비스 목록
다나와 APP
다나와 가격비교 No.1 가격비교사이트 다나와 앱으로
간편하게 최저가를 확인하세요.
- -
QR코드
빈 이미지
다나와 앱 서비스 목록 닫기

"AI가 쓴 글인데요..." 면책 조항, 사람들의 인식에 실제로 영향을 미칠까?

2025.04.08. 09:27:48
조회 수
173
5

공유하기

레이어 닫기

지금 보는 페이지가 마음에 든다면
공유하기를 통해 지인에게 소개해 주세요.

로그인 유저에게는 공유 활동에 따라
다나와 포인트가 지급됩니다.

자세히 >

URL이 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)하세요.

레이어 닫기

"Always check important information!" - The role of disclaimers in the perception of AI-generated content


56%만 알고 있다: 생성형 AI의 취약점과 현행 면책 조항의 미미한 효과

생성형 인공지능(Generative AI)과 특히 대규모 언어 모델(LLM)은 디지털 콘텐츠의 중요한 원천으로 자리 잡았다. 이러한 모델들은 널리 사용되고 있지만, 사실적 정확성 부족과 같은 중요한 약점을 가지고 있다. 이 도구들의 장단점에 대해 알고 있는 것은 AI를 안전하고 적절하게 사용하는 데 필수적이지만, 모든 사람이 이를 인식하고 있지는 않다.

렐만 헤네스트로사(Angelica Lermann Henestrosa)와 키멀레(Joachim Kimmerle) 연구진은 AI 저작권과 AI 생성 콘텐츠에 대한 사람들의 인식에 면책 조항이 어떤 영향을 미치는지 세 가지 실험 연구를 통해 탐색했다. 독일 인구 조사에서는 56%만이 언어 생성 AI의 진술이 부정확할 수 있다는 것을 알고 있으며, 47%는 LLM이 인간처럼 언어를 이해하는 방법을 배웠다고 잘못 믿고 있었다.

면책 조항은 시스템의 위험이나 위험성에 사람들의 주의를 끌기 위한 정보 조각으로, 웹사이트 운영자가 법적 책임을 배제하기 위해 사용된다. 현재 OpenAI와 같은 기업들은 인터페이스에 작은 각주로 면책 조항을 표시하고 있다. 예를 들어 ChatGPT 인터페이스에는 "ChatGPT는 실수할 수 있습니다. 항상 중요한 정보를 확인하세요"(2025년 3월 기준)라는 문구가 나타난다.

첫 번째 실험 연구에서 면책 조항의 유형이 텍스트 인식에 미치는 영향은 발견되지 않았으며, 저작권 인식에는 미미한 영향만 있었다. 이 실험에서는 평가적(대 중립적) 정보 제시가 신뢰성 인식을 감소시켰지만, AI의 장점 대 한계점을 알리는 것은 그렇지 않았다.

오늘날 생성형 AI는 과학 정보 검색, 사실적 질문 답변, 자가 진단, 심지어 연구 분야에서도 광범위하게 사용되고 있다. 그러나 이러한 분야에서는 사실적 정확성이 매우 중요함에도 불구하고, 특히 새롭거나 확립되지 않은 과학적 주제에서 오류율이 상당히 높다는 점이 문제가 된다.


인간보다 AI에 더 많은 정확성과 적은 편향성 부여하는 사용자들

연구에서 가장 주목할 만한 발견 중 하나는 참가자들이 '정확한', '편향되지 않은', '중립적', '객관적'과 같은 형용사를 인간 저자보다 AI에 더 많이 귀속시킨다는 것이었다. 이는 '기계 휴리스틱(machine heuristic)'이라고 알려진 평가로, 사람들이 기계에 대해 특정 특성을 가정하는 경향이 있음을 보여준다.

선다르(Sundar)와 김(Kim)의 MAIN 모델에 따르면, 인터페이스 신호와 같은 기술적 접근성이 이러한 휴리스틱을 작동시킬 수 있으며, 이는 차례로 기술에 대한 인식과 상호작용을 형성할 수 있다. 이전 연구에서도 인간 작업을 기계가 대신할 때 기계 휴리스틱이 활성화된다는 것이 발견되었다.

특히 과학적 주제에 대해 LLM을 이용할 때 이러한 특성을 귀속시키는 것은 실제 능력에 대한 과대평가를 나타낼 수 있다. 연구에 따르면 사람들은 컴퓨터 처리를 인간 사고와 유사하다고 상상하는 경향이 있으며, AI 리터러시가 낮을수록 AI에 대한 수용성이 더 크고 이를 '마법적'인 것으로 인식한다고 한다.

균형 효과: 인간-AI 공동 저작이 신뢰도를 높이는 메커니즘

두 번째 실험 연구에서는 저작권과 면책 조항 유형 사이의 상호작용 효과를 보여주었으며, 이는 인간-AI 공동 저작의 가능한 균형 효과에 대한 통찰력을 제공했다. 알고리즘 회피(algorithm aversion) 연구에 따르면 인간-알고리즘 하이브리드가 알고리즘만 사용하는 것보다 더 긍정적으로 평가된다. 이 실험에서 공동 저작은 "자동화된 텍스트 생성기가 작성하고 인간이 검토 및 수정한 텍스트"로 정의되었다. 연구는 AI 한계에 대한 정보(AI 한계 조건)만 강조하거나 인간 저자의 한계까지도 언급하는(AI 및 인간 한계 조건) 면책 조항의 효과를 조사했다.

주수포(Jussupow)와 동료들의 연구에 따르면 "인간 참여는 알고리즘의 인식된 능력을 증가시키고 그들의 주체성을 감소시킬 수 있으며, 이 둘 모두 더 호의적인 인식으로 이어질 수 있다"고 설명했다. 특히 과학 커뮤니케이션과 같은 분야에서는 인간의 검증 권한이 특히 중요하다.


역설적 효과: 한계를 설명할수록 더 높아지는 신뢰도

세 번째 실험 연구에서는 기본적인 면책 조항보다 강점과 한계 면책 조항 모두 더 높은 신뢰성 평가를 유도했다. 이는 단순히 AI의 한계에 대해 경고하는 것보다 더 포괄적인 정보를 제공하는 것이 사용자의 신뢰를 높일 수 있다는 역설적인 결과를 보여준다.

이 결과는 왕(Wang)과 황(Huang)의 메타분석 결과와는 대조적이다. 그들은 알고리즘에 대한 설명 정보가 있을 때 기계가 작성한 뉴스가 인간이 작성한 것보다 낮은 신뢰성을 유도한다고 발견했다. 그러나 이 연구에서는 정보 없음 조건과 기본 정보 조건 사이에 유의미한 차이가 없었으며, AI의 능력에 대한 추가 정보가 오히려 신뢰도를 높이는 효과를 보였다.

진도렛(Dzindolet) 등의 연구에 따르면, "설명을 제공받은 참가자들은, 시스템이 오류를 범할 수 있는 이유에 대한 설명을 받았을 때, 심지어 그것이 부당할 때에도 의사결정 보조 도구에 대한 신뢰와 의존도가 더 높았다"고 한다. 이는 기술의 한계를 명확히 설명하는 것이 사용자들에게 투명성의 신호로 작용하여 오히려 더 큰 신뢰를 구축할 수 있음을 시사한다.

대규모 언어 모델의 한계와 윤리적 관행 필요성

이 연구는 면책 조항이 AI 생성 결과물의 인식에 일관되게 영향을 미치지 못한다는 것을 시사한다. 연구자들은 대규모 언어 모델의 능력과 한계에 대한 인식을 높이고 AI 생성 콘텐츠를 다루는 데 있어 윤리적 관행을 지지하기 위한 추가적인 개입이 개발되어야 한다고 제안한다.

연구의 제한점으로는 조작 확인 관련 문제로 인한 높은 제외율이 있다. 세 연구 모두에서 면책 조항에 대한 기억을 확인하는 방법이 많은 참가자들의 제외로 이어졌다. 이는 사람들이 일반적으로 면책 조항에 거의 주의를 기울이지 않는다는 것을 시사하며, 통제된 실험 환경에서도 이러한 정보가 쉽게 무시된다는 사실을 보여준다.

연구자들은 면책 조항 형식과 배치 개선, 맥락에 맞는 구체적인 정보 제공, 사용자가 이러한 정보를 무시하지 않도록 설계 전략 개발 등의 방안을 제시한다. 또한 LLM 제공 업체들이 사용자 교육에 더 많은 노력을 기울이고, 단순한 각주 이상의 효과적인 커뮤니케이션 방법을 개발해야 한다고 강조한다.

FAQ

Q: 대규모 언어 모델(LLM)은 왜 사실적 정확성에 한계가 있나요?

A: 대규모 언어 모델은 엄청난 양의 데이터에서 패턴을 학습하여 다음 단어를 예측하는 방식으로 작동합니다. 언어적 능력을 가능하게 하는 바로 그 예측 불가능성과 데이터의 양이 모든 정보의 사실적 검토를 배제합니다. 따라서 사후 조정이 오류율을 줄일 수는 있지만, 특히 새로운 연구 분야와 같은 영역에서는 정확하지 않은 정보를 제공할 가능성이 높습니다.

Q: 면책 조항을 더 효과적으로 만들려면 어떻게 해야 할까요?

A: 연구 결과에 따르면 단순한 경고보다는 AI의 강점과 한계 모두를 균형 있게 설명하는 것이 더 효과적일 수 있습니다. 또한 면책 조항의 형식과 배치에 더 많은 관심을 기울이고, 맥락에 맞는 구체적인 정보를 제공하는 것이 중요합니다. 사용자들이 이러한 정보를 쉽게 무시하지 않도록 설계 전략을 개선할 필요가 있습니다.

Q: 인간-AI 공동 저작이 AI 생성 콘텐츠의 신뢰성을 높일 수 있을까요?

A: 연구 결과는 인간-AI 공동 저작이 AI의 한계를 완화할 수 있는 균형 효과를 제공할 수 있음을 시사합니다. 특히 과학적 정보와 같이 사실 검증이 중요한 분야에서는 인간 전문가의 참여가 콘텐츠의 신뢰성을 높이고 사용자들이 정보를 더 신뢰하게 만들 수 있습니다.

해당 기사에서 인용한 논문은 링크에서 확인할 수 있다.

이미지 출처: 이디오그램 생성

기사는 클로드와 챗gpt를 활용해 작성되었습니다.




AI Matters 뉴스레터 구독하기

공감/비공감

공감/비공감안내도움말 보기
유용하고 재미있는 정보인가요?
공감이 된다면 공감 버튼을, 그렇지 않다면 비공감 버튼을 눌러 주세요!
공감이나 비공감을 선택 하는 경우 다나와 포인트를 적립해 드립니다. ※ 공감 버튼의 총 선택 횟수는 전체 공개입니다. 비공감 버튼의 선택 여부는 선택한 본인만 알 수 있습니다.
최신 일반뉴스 전체 둘러보기
1/1
LIV 골프 행사 나갔다가 징계받는 PGA 선수, 재심 요구 연합뉴스
'샷 난조' 임성재, 우리은행 챔피언십 3연패 먹구름…1R 4오버파 연합뉴스
한진선·정소이·홍진영, KLPGA 덕신EPC 1R서 3언더파 공동 1위 연합뉴스
하이브IM '퍼즐 세븐틴' GS25와 컬래버레이션 디저트 6종 출시 게임동아
롬, '에피소드Ⅲ : 공성전' 업데이트 선보여 게임동아
‘에오스 블랙’ 신 서버 알드리 오픈 업데이트 게임동아
익숙하면서도 새롭다. 모든 장르로 확산되고 있는 포스트 아포칼립스의 매력 (1) 게임동아
'바람의나라’ 가정의 달 맞이 운동회 이벤트 실시 게임동아
전기차부터 레인지 익스텐더까지…폭스바겐, 중국서 신에너지차 드라이브 뉴스탭
데이비드 베컴, 보스와 손잡고 첫 디자인 컬렉션 BECKHAM x BOSS 론칭 뉴스탭
'승리의 여신: 니케', 2.5주년 대규모 업데이트…신규 니케·이벤트 대거 공개 뉴스탭
YOSTAR, 명일방주 ‘막을 여는 자들’ 이벤트 개최…신규 오퍼레이터 6인 추가 뉴스탭
현대차 1분기, 매출 44조원으로 역대 최대 '영업익 3조 6336억원 달성' 오토헤럴드
기아 EV4 '전동화 시대 교과서 같은 세단' 오토헤럴드
KGM, 1분기 영업이익 106억 원 흑자 달성...순수 영업실적으로 이익 실현 의미 오토헤럴드
현대차, 2025년 1분기 역대 최대 분기 매출 달성... 하이브리드 판매 호조 글로벌오토뉴스
중국 FAW 그룹, 홍치 브랜드 첫 비행 자동차 공개… 미래 모빌리티 시대 개척 글로벌오토뉴스
포니.ai, 세계 최초 차량용 칩 기반 레벨 4 로보택시 공개… 양산 원년 선언 글로벌오토뉴스
아우디, 중국 전용 전기차 브랜드 첫 모델 ‘E5 Sportback’ 공개 글로벌오토뉴스
지커 009 그랜드 컬렉터 에디션 공개, 순금으로 치장된 럭셔리 밴 글로벌오토뉴스
이 시간 HOT 댓글!
1/4