비교하고 잘 사는, 다나와 : 가격비교 사이트

다나와 앱
다나와 앱 서비스 목록
다나와 APP
다나와 가격비교 No.1 가격비교사이트 다나와 앱으로
간편하게 최저가를 확인하세요.
- -
QR코드
빈 이미지
다나와 앱 서비스 목록 닫기

"챗GPT가 고의로 실수 숨기면 신뢰도 3배 상승한다"... IBM이 밝힌 충격적 진실

2025.08.19. 11:20:03
조회 수
213
1

공유하기

레이어 닫기

지금 보는 페이지가 마음에 든다면
공유하기를 통해 지인에게 소개해 주세요.

로그인 유저에게는 공유 활동에 따라
다나와 포인트가 지급됩니다.

자세히 >

URL이 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)하세요.

레이어 닫기

AI 챗봇이 그럴듯하게 들리지만 틀린 정보를 말하는 문제가 심각해지고 있다. 실제로 구글의 AI가 공개 시연에서 틀린 정보를 말해 회사 주가가 1000억 달러나 떨어진 사건이 있었고, 에어캐나다는 AI 챗봇이 제공한 거짓 정보 때문에 소송까지 당했다.

미국의 정보기술 기업인 IBM의 연구진이 22개국 출신 148명을 대상으로 총 592개 과제를 수행한 대규모 실험 결과, AI가 틀린 정보를 빨간색으로 표시해서 "이건 틀릴 수 있어요"라고 알려주는 것보다, 아예 그 부분을 지워버리거나 애매하게 바꿔서 말하는 것이 사용자들이 AI를 더 믿게 만든다는 사실을 발견했다. 참가자들은 소프트웨어 개발자 50명, 엔지니어 26명, 영업직 21명, 디자이너 15명 등 다양한 직업군으로 구성됐다. 이는 기존에 "투명하게 모든 정보를 공개해야 한다"는 AI 설계 원칙과는 정반대의 결과다.

평균 153단어 답변 중 43%가 틀린 정보인 상황에서 5가지 실험

연구진은 AI가 답변할 때 틀릴 수 있는 내용을 어떻게 처리하는지에 따라 5가지 방법을 비교했다. 실험에는 평균 153.5단어, 7.5문장으로 구성된 AI 답변이 사용됐고, 각 답변에는 평균 34개의 사실이 포함됐는데 이 중 14.75개(43%)가 틀린 정보였다.

첫 번째는 아무 표시 없이 그냥 답변하는 기본 방식이다. 두 번째는 틀릴 가능성이 높은 부분을 주황색으로 칠해서 "이 부분은 의심스러워요"라고 알려주는 투명 방식이다. 주황색을 선택한 이유는 사전 인터뷰에서 참가자들이 "주황색은 일반적으로 뭔가 잘못되었다는 것을 나타낸다"고 답했기 때문이다. 세 번째는 반대로 확실한 부분만 파란색으로 칠해서 강조하는 주목 방식이다. 네 번째는 틀릴 수 있는 부분을 아예 지우고 '[..]' 표시만 남기는 삭제 방식이고, 다섯 번째는 틀린 내용을 애매한 표현으로 바꾸는 모호 방식이다.

실험은 기자가 인물 전기를 쓰는 상황으로 설정됐고, 참가자들에게 위키피디아를 참고 자료로 제공했다. 실험 결과 삭제 방식과 모호 방식을 쓴 그룹에서 사용자들이 AI를 가장 많이 신뢰했다.

IBM 그래나이트 모델이 최고 성능... 6가지 패턴으로 모호화 구현

이번 연구에서 가장 주목받는 것은 '모호 방식'이라는 새로운 기법이다. 예를 들어 AI가 "그는 1950년에 파리로 이주했다"라고 틀린 정보를 말하려고 하면, 이를 "그는 1950년대에 다른 나라로 이주했다"로 바꿔서 말하는 것이다. 틀린 정보를 완전히 지우는 대신 틀리지 않을 정도로만 애매하게 만드는 방식이다.

연구진은 이를 위해 7개 언어모델과 5가지 프롬프트를 비교 실험했고, IBM의 그래나이트(Granite) 모델이 최고 성능을 보였다. 구현 과정은 3단계로 이뤄진다. 먼저 AI가 말하려는 내용을 작은 사실 단위로 쪼개고, 각각이 맞는지 틀리는지 판단한 다음, 틀린 부분만 애매한 표현으로 바꿔서 다시 하나의 문장으로 합치는 과정이다.

모호화 작업에는 6가지 패턴이 사용됐다. 범위 확대(뉴욕 → 미국), 불명확화(일부 사람들, 전문가들, 많은 사람들), 완곡어법(은퇴 → 물러나다), 근사치(2004년 → 2004년경, 2000년대), 수동 구문(믿어진다, 여겨진다), 부사 사용(종종, 아마도) 등이다. 기술의 불완전함 때문에 연구진이 최종 결과물을 손수 편집하는 과정도 거쳤다.

"AI가 왜 자기 실수를 강조하나"... 참가자 사전 인터뷰에서 나온 솔직한 반응

지금까지 AI 업계에서는 "사용자가 AI를 제대로 이해하려면 모든 정보를 투명하게 공개해야 한다"는 원칙이 지배적이었다. 틀릴 수 있는 정보라도 표시를 해서 사용자에게 알려주는 것이 좋다고 여겨졌다. 하지만 이번 연구는 이런 생각이 틀렸을 수 있음을 보여준다.

연구진이 6명을 대상으로 한 사전 인터뷰에서 참가자들은 "AI가 왜 자기 실수를 굳이 강조해서 보여주는지 모르겠다"며 "차라리 안 보여주는 게 낫겠다"고 답했다. 사람끼리 대화할 때도 거짓말이라고 생각하는 내용은 아예 말하지 않는 것이 신뢰 관계에 도움이 된다는 기본 원리를 AI에도 적용한 것이다.

특히 맞는 부분만 파란색으로 강조하는 주목 방식은 오히려 사용자들의 기대치를 너무 높여서 부작용을 낳는 것으로 나타났다. 과도한 강조가 사용자 인식을 조작하려는 시도로 받아들여져 부정적인 반응을 불러일으켰다. 흥미롭게도 참가자들이 위키피디아 참고 자료를 클릭하는 비율에는 5가지 방식 간에 유의미한 차이가 없었다. 이는 단순히 틀릴 수 있는 정보를 알려주는 것만으로는 사용자들이 정보를 검증하려는 행동을 하지 않는다는 의미다.

FAQ

Q: AI가 정보를 숨기면 사용자가 속는 거 아닌가요?

A: 연구진은 완전히 틀린 정보를 감추거나 애매하게 바꾸는 것이므로 사용자를 속이는 것이 아니라고 설명합니다. 오히려 확실하지 않은 세부사항을 제거해서 전체적으로 더 정확한 정보를 제공하는 방식입니다.

Q: 정보를 지우면 답변이 부실해지지 않나요?

A: 실험 결과 사용자들은 일부 정보가 지워진 답변도 완전성이나 일관성 면에서 다른 방식과 비슷하게 평가했습니다. 잘 모르는 주제에 대해서는 일부 정보가 없어도 전체 답변 품질에 큰 영향을 주지 않는다는 뜻입니다.

Q: 이런 방식을 실제 서비스에 적용할 때 주의할 점은?

A: 의료나 법률처럼 정확성이 생명인 분야에서는 신중하게 써야 합니다. 또한 AI가 정확도를 판단하는 것 자체가 완벽하지 않아서 실제로는 맞는 정보를 잘못 숨길 위험도 있습니다. 필요할 때 숨겨진 정보를 볼 수 있는 기능을 추가하는 것도 좋은 방법입니다.

해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.

논문 명: Hide or Highlight: Understanding the Impact of Factuality Expression on User Trust

이미지 출처: 이디오그램 생성

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.





AI Matters 뉴스레터 구독하기

공감/비공감

공감/비공감안내도움말 보기
유용하고 재미있는 정보인가요?
공감이 된다면 공감 버튼을, 그렇지 않다면 비공감 버튼을 눌러 주세요!
공감이나 비공감을 선택 하는 경우 다나와 포인트를 적립해 드립니다. ※ 공감 버튼의 총 선택 횟수는 전체 공개입니다. 비공감 버튼의 선택 여부는 선택한 본인만 알 수 있습니다.
최신 일반뉴스 전체 둘러보기
1/1
AI뉴스 ICPC 만점, Grok 4 Fast, AI_TOP_100, Figma AI, 구글 AP2, WanAnimate, Meta Connect 등 동영상 있음 조코딩 JoCoding
구글, 저가형 ‘AI 플러스’ 요금제 40여 개국으로 확대...챗GPT와 신흥국 시장 확대 경쟁 중 다나와
챗GPT로 만든 가짜 스마트폰 사용 데이터, 실제와 얼마나 비슷할까? AI matters
"AI가 쥐만 못해?"… 쥐의 뇌 활동 데이터로 AI 시각 능력 평가하는 새 벤치마크 등장 AI matters
AI가 인간 가치관 바꿀 수도... 영국 대학 연구진 "지속 관리 필요" AI matters
AI 답변 속 광고 심는 기술 vs 탐지 기술… AI 챗봇 답변 속 숨은 광고, 알아차릴 수 있을까? AI matters
"예측 가능한 글만 살아남는다"... AI 검색이 웹사이트를 선택하는 기준 AI matters
"AI 도구 도입하면 끝?" 착각하는 회사들... 구글이 알려주는 AI 도입 성공 전략 7가지 AI matters
예시 10개 줘도 소용없다... AI가 일반인 문체 흉내내지 못하는 진짜 이유 AI matters
AI 비서, 정말 쓸모 있을까?… AI 에이전트 활용 방해하는 5가지 장벽 AI matters
‘연간 1000억달러 손실’… 생성형 AI 비용 90% 급락하며 가짜정보 홍수 AI matters
대학생들이 증명한 AI 교육 효과... 챗봇 활용 학생 100% "학습 향상" 체감 AI matters
메타·MS·구글 XR 기기 보안 테스트해봤더니… 가짜 광고·잘못된 지시 등 취약점 발견 AI matters
기업 64%가 AI로 친환경 추진, 하지만 환경 영향 우려는 더 커져 AI matters
기업 임원 98%가 IT팀 몰래 클라우드·AI 서비스 구매… 비용-보안 문제 야기한다 AI matters
글로벌 은행들의 AI 연구 투자 7배 급증... "선두 5개 은행이 65% 장악" AI matters
"5분이면 완성"... 가상 인플루언서 제작하는 AI 시스템 등장 AI matters
한국, ‘AI 아시아 허브’ 비전 가속화…엔터테인먼트와의 융합까지 확대 다나와
MIT, AI 기반 신소재 설계 도구 ‘SCIGEN’ 공개…차세대 전자·광학 혁신 이끈다 다나와
챗GPT 추천받는 기업 vs 외면받는 기업, 그 차이는? AI matters
이 시간 HOT 댓글!
1/4