비교하고 잘 사는, 다나와 : 가격비교 사이트

다나와 앱
다나와 앱 서비스 목록
다나와 APP
다나와 가격비교 No.1 가격비교사이트 다나와 앱으로
간편하게 최저가를 확인하세요.
- -
QR코드
빈 이미지
다나와 앱 서비스 목록 닫기

챗GPT, 일반인보다 73% 더 진보적... AI가 만드는 정치 편향의 덫

2025.12.31. 09:34:46
조회 수
178
4

공유하기

레이어 닫기

지금 보는 페이지가 마음에 든다면
공유하기를 통해 지인에게 소개해 주세요.

로그인 유저에게는 공유 활동에 따라
다나와 포인트가 지급됩니다.

자세히 >

URL이 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)하세요.

레이어 닫기

인공지능(AI)이 우리 생활 곳곳에 퍼지면서 새로운 문제가 생기고 있다. 챗GPT 같은 AI가 실제 미국 사람들보다 73% 더 진보적인 답변을 한다는 연구 결과가 나왔고, 유튜브 같은 플랫폼의 추천 시스템은 성별에 따라 다른 영상을 보여주면서 남녀 차별을 더 심하게 만들고 있다. 한국지능정보사회진흥원이 발표한 'AI 편향으로 인한 사회적 갈등과 정책적 대응' 보고서는 AI의 편향된 판단이 더 이상 기술적 실수가 아니라 사회 갈등과 극단적 대립을 키우는 구조적 문제라고 경고한다.

국민 10명 중 7명 "뉴스 안 본다"... 정치 편향 때문

한국언론진흥재단 조사에 따르면 우리나라 성인의 72%가 '뉴스를 일부러 안 본 적'이 있다고 답했다. 가장 보기 싫은 뉴스는 '국내 정치 뉴스'가 44.1%로 1위였고, 뉴스를 안 보는 이유로는 '정치적으로 한쪽으로 치우쳐서'와 '보기 싫은 사람이 나와서'를 꼽았다. 더 심각한 문제는 이런 뉴스 편향이 개인의 선택을 넘어서 맞춤형 추천 알고리즘이라는 기술 구조에 의해 더 은밀하고 체계적으로 강화되고 있다는 점이다.

챗GPT의 진보 성향도 눈여겨볼 만하다. 2025년 6월 발표된 연구에서 챗GPT가 일반 미국인인 척 답변했을 때, 진보 성향 점수가 0.725로 나왔다. 이는 미국인 평균인 0.447보다 약 73% 높은 수치다. 연구진은 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 글을 쓰게 했는데, 13개 주제(68%)에서 좌파적 입장이 강하게 나타났다고 밝혔다. 이는 AI가 단순히 정보를 전달하는 게 아니라 특정 의견을 과장하고 증폭시키는 증폭 장치 역할을 할 수 있음을 보여준다.

AI와 잠깐 대화했을 뿐인데... 정치 성향 최대 25% 바뀌어

코넬대학교 연구진의 실험은 AI가 민주주의에 미치는 위험을 실제로 보여준다. 연구 결과 AI 챗봇과 짧은 대화만 나눴는데도 사람들의 정치 후보나 정책 선호도가 기존 정치 광고보다 훨씬 크게 바뀌었다. 특히 야당 지지자들의 태도 변화는 일부 나라에서 최대 10%포인트, 영국 실험에서는 25%포인트까지 관찰됐다.

연구팀은 AI 기반 설득이 기존 정치 광고보다 강력한 이유가 '개인화'와 '상호작용성'에 있다고 설명했다. AI가 대화 과정에서 사용자의 언어 패턴, 관심사, 인지적 편향을 파악하고 개별 유권자의 심리·인지 편향에 맞춘 미세조정된 메시지를 지속적으로 제공할 가능성에 대한 문제를 제기한다. 이는 AI 기술이 단순한 정보 전달 도구를 넘어 사회적 인식과 민주적 의사 형성 과정 전체에 영향을 미칠 수 있다는 점을 보여준다.

청소년 절반이 알고리즘 영향 받아... 노인도 위험

NIA 스마트폰 과의존 실태조사에 따르면, 우리나라 청소년 10명 중 약 4명이 과의존 위험군에 해당하며, 특히 숏폼 장시간 시청에 있어 알고리즘의 영향을 경험한 청소년은 약 47.8%에 달한다. 한편 뉴스·시사정보를 많이 이용하는 소셜미디어 1순위로 유튜브를 선택한 비율은 60대 82.6%, 70대 93.1%를 기록했다. AI 역량이 부족한 고령층은 1인 미디어를 활용한 뉴스 소비에 크게 의존하고 있으며, 이는 곧 내재된 자신의 편향을 강화하는 악순환에 빠질 가능성이 있다.

스위스 비즈니스 스쿨 연구에서는 AI 도구 사용과 인지적 오프로딩(생각을 외부로 떠넘기는 현상) 간에는 강한 양의 관계가, AI 도구 사용과 비판적 사고력 간에는 강한 음의 관계가 확인됐다. 이는 AI 도구에 더 많이 의존할수록 비판적 사고력이 감소한다는 것을 의미한다. 결국 AI는 보조도구로 활용하며, 최종 판단과 의사결정은 스스로 내리는 습관을 기르는 것이 중요하다.

미국의 AI 편향 대응... 자율과 책임 병행, 이념 편향 제거로

미국은 AI 권리장전 청사진을 발표했다. 이는 백악관 과학기술정책실이 발표한 AI 윤리 지침으로써, 자동화 시스템으로 인한 잠재적 피해로부터 미국인을 보호하기 위한 5가지 원칙을 제시한다. 미국 표준기술연구소(NIST)는 AI 위험 관리 프레임워크에서 편향 관리를 명시했고, AI 편향 범주를 시스템적 편향, 통계적 및 계산적 편향, 인간-인지적 편향 3가지 영역으로 구분하여 각 영역에 대한 지침을 제시한다.

다만 최근 트럼프 정부는 AI 내의 이념적 편향 제거에 대한 행정명령을 발표했다. 해당 행정명령은 정부가 객관적이고 이념적 편향이 없는 대규모 언어모델 개발 업체와만 계약하도록 보장하는 것을 목표로 하며, 이를 위해 진실 추구와 이념적 중립성을 준수하도록 명령한다.

기술 중심 정책의 한계... "통합적 관리 필요"

보고서는 EU, 미국, 영국 등 주요 국가들의 AI 편향 대응이 기술적·규제적 접근에만 집중하고 있다고 지적한다. 기술적 안전장치나 데이터 품질 개선만으로는 학습 모델의 구조적 한계를 제거할 수 없고, 플랫폼 수준에서 추천 알고리즘 투명성이나 선택권을 제공하더라도 사용자가 AI 결과를 무비판적으로 수용하면 사회적 편향은 지속적으로 발생한다는 것이다. 따라서 기술적 안전장치, 정보환경 구조, 사용자 행동, 거버넌스가 맞물려 작동해야 AI 편향을 효과적으로 줄일 수 있다고 강조하며, '기술 및 데이터-플랫폼-사용자-거버넌스' 4개 영역의 통합적 관리 체계를 제안한다.

첫째, 기술 및 데이터 영역에서는 사전 예방적 품질 관리가 필요하다. 인종, 성별, 지역, 이념 등 다양한 변수를 균형 있게 반영하는 데이터 수집 가이드라인 개발, 기업·연구 기관이 자율적으로 알고리즘 편향을 측정할 수 있는 표준화 지표와 오픈소스 도구 제공, AI 모델 출시 전 의도적 공격 시나리오를 통해 편향을 검토하는 Red Teaming 권고 등이 포함된다.

둘째, 플랫폼 영역에서는 알고리즘 투명성 및 선택권 강화가 필요하다. 플랫폼이 추천 알고리즘의 핵심 기준과 가중치를 이해하기 쉬운 언어로 제공하도록 권고하고, 최신순·무작위 순 등 알고리즘 개입 없는 콘텐츠 탐색 옵션을 제공하며, 이용자가 추천 결과에 대해 직접 피드백할 수 있는 기능을 마련해야 한다.

셋째, 사용자 영역에서는 AI 리터러시 함양이 필요하다. 추천 알고리즘 원리, 필터버블과 에코챔버 등 정보 편향 위험성을 다루는 연령별·집단별 맞춤형 교육 프로그램 개발, 국민이 'AI 편향'의 정의와 공정성 기준 설정 과정에 참여할 수 있는 참여형 플랫폼 마련, 이용자가 자신이 보는 콘텐츠 편향 정도를 확인할 수 있는 지표·도구 제공 등이 포함된다.

넷째, 거버넌스 영역에서는 편향 평가·관리·책임 체계 확보가 필요하다. 정부, 학계, 시민사회가 참여하는 독립 위원회를 통해 AI 시스템의 편향 여부를 정기적으로 평가·보고하고, 사회적 공론화와 전문가 검토를 통해 편향의 판단 기준을 설정·관리하며, 기업이나 기관이 만든 AI 시스템에서 편향이 발견될 경우 보고 의무와 개선 계획 제출을 규정해야 한다.


FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q1. AI 편향이란 쉽게 말해 무엇인가요?

A. AI 편향이란 인간 사회에 내재된 편견과 구조적 불균형이 AI시스템의 학습 데이터, 모델 설계, 운영 과정 전반에 반영되면서 AI의 판단이나 결과가 특정 방향으로 치우치는 현상을 말합니다. 데이터 편향, 알고리즘 편향, 사용자 편향 등 다양한 단계에서 발생하며, 정보 환경과 AI 활용 맥락에 따라 다양한 형태로 나타날 수 있습니다.

Q2. 필터버블과 에코챔버는 무슨 뜻인가요?

A. 필터버블은 개인화된 검색기술이 제공하는 웹 콘텐츠를 기반으로 개인의 지적 관점이 좁아지거나 제한되는 현상을 말합니다. 에코챔버는 유사한 성향의 사람들과 소통하면서 자신의 가치관과 다르거나 반대되는 관점을 차단하고 스스로 선호하는 관점만을 반복적으로 수용하고 소비하는 정보 환경을 의미합니다.

Q3. AI 편향으로부터 어떻게 나를 보호할 수 있나요?

A. A는 보조 수단으로 활용하되, 최종 판단과 의사 결정은 스스로 내리는 습관을 기르는 것이 중요합니다. 출처를 확인하고, 알고리즘 편향 가능성을 인식하며, AI 없이 창작하는 시간을 가지는 것이 유용합니다. 또한 추천 알고리즘에만 의존하지 않고 다양한 관점의 정보를 능동적으로 찾아보며, AI·디지털 리터러시 교육을 통해 비판적 사고 능력을 키우는 것이 필요합니다.

해당 기사에 인용된 리포트 원문은 한국지능정보원에서 확인 가능하다.

리포트명: AI·디지털 이슈 공론화 리포트 3호 - AI 편향으로 인한 사회적 갈등과 정책적 대응

이미지 출처: 한국지능정보원

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.





AI Matters 뉴스레터 구독하기

공감/비공감

공감/비공감안내도움말 보기
유용하고 재미있는 정보인가요?
공감이 된다면 공감 버튼을, 그렇지 않다면 비공감 버튼을 눌러 주세요!
공감이나 비공감을 선택 하는 경우 다나와 포인트를 적립해 드립니다. ※ 공감 버튼의 총 선택 횟수는 전체 공개입니다. 비공감 버튼의 선택 여부는 선택한 본인만 알 수 있습니다.
최신 일반뉴스 전체 둘러보기
1/1
그린리본, CES 2026서 환자 중심 임상 리크루팅 플랫폼 ‘그린스카우트’ 성과 공개 [SBA CES] IT동아
[CES 2026] CES 2026에서 주목받은 오디오 기기는? IT동아
일부 유통사 "AI 게임 퍼블리싱 안 합니다" 분위기 확산 게임메카
비운의 3편 주인공 알렉스, 스파 6 참전 시기는 '초봄' 게임메카
카타나 제로 느낌, 국산 액션 '이나리' 13일 체험판 공개 게임메카
[오늘의 스팀] 연이은 동접 10만, 림버스 컴퍼니 관심집중 게임메카
패러사이트 이브 느낌, '패러사이트 뮤턴트' 체험판 공개 (1) 게임메카
시대를 앞서간 비운의 기기, 버추얼 보이 복각된다 게임메카
클리어하려면 버그를 내야 하는 이색 FPS 신작 등장 게임메카
OWC, CES 2026에서 썬더볼트 5 기반 신제품 스튜디오스택 등 라인업 소개 다나와
MSI, 새해 맞이 인기 게이밍기어 구매 고객 대상 후기 이벤트 진행 다나와
조텍 '그래픽카드 사고 조텍 굿즈도 받고' 제품 리뷰 이벤트 진행 다나와
롤 해외 리그 LPL·LEC 2026 시즌, SOOP에서 생중계 게임메카
PC 부품값 폭등 시대, 클라우드 PC가 해법 될까? (3) IT동아
[CES 2026] 로닉, 피지컬 AI 기반 AI 디스펜서 기술로 글로벌 F&B기업에 ‘눈도장’ IT동아
‘와이파이 끊겨도 스스로 판단’ 현대차·기아, 로봇용 AI 칩 개발 완료 선언 오토헤럴드
포드 '아이즈 오프' 가장 저렴한 가격대 자율주행차 2028년 출시 선언 오토헤럴드
‘문 안 열리는 차’ 막을까…美 의회, 전자식 도어 핸들 안전 규제 착수 오토헤럴드
[EV 트렌드] 테슬라, "사이버캡을 사이버캡이라고 부르지 못할 운명" 오토헤럴드
"단연 최고" 보스턴다이나믹스 '아틀라스' CES 2026 '최고 로봇' 수상 오토헤럴드
이 시간 HOT 댓글!
1/4