챗GPT가 출시된 지 불과 2개월 만에 1억 명 이상의 사용자를 확보하며 역사상 가장 빠르게 성장한 애플리케이션이 된 이후, 인공지능은 우리 삶의 필수적인 동반자가 되었다. 하지만 AI의 광범위한 사용이 인간의 인지 능력, 특히 비판적 사고와 창의성에 어떤 영향을 미치는지에 대한 우려가 커지고 있다. 독립 연구자 레날드 게스노(Rénald Gesnot)가 발표한 연구 리포트에 따르면, AI가 인간 사고의 표준화를 촉진하고, 지적 자율성을 위협할 수 있다는 경고를 담고 있다.
챗GPT 2개월 만에 1억 사용자 확보, 인지적 오프로딩 현상 주목
AI는 이제 단순한 도구가 아닌 인간의 인지적 파트너로 자리 잡았다. 가상 비서는 일상적으로 사용되고, 알고리즘은 소셜 네트워크에서 우리의 선택을 안내하며, 생성형 AI는 텍스트와 이미지를 생산하는 데 활용된다. 챗GPT는 2022년 말 출시 후 단 2개월 만에 1억 명 이상의 활성 사용자를 확보하며 전례 없는 속도로 대중화되었다.
그러나 이러한 AI의 광범위한 통합은 인간 사고에 대한 정확한 영향에 대한 중요한 질문을 제기한다. 언어 모델 제안에 접근할 수 있었던 작가들은 더 창의적이고 더 잘 쓰여진 것으로 평가되는 텍스트를 생산했다는 연구 결과도 있지만, 동시에 기억, 계산, 심지어 의사결정까지 알고리즘에 맡기는 것이 통제되지 않으면 더 이상 사용되지 않는 지적 능력의 약화로 이어질 수 있다는 우려도 제기된다.
연구자들은 이를 인지적 오프로딩(cognitive offloading)이라 부른다. AI에 정신적 프로세스를 과도하게 의존하게 되면서 인간의 마음이 자율성과 비판적 사고를 잃을 위험이 있다는 것이다. 실제로 연구진은 챗봇에 과도하게 의존하여 문제를 해결할 때 비판적 사고나 창의성과 같은 기술이 잠재적으로 쇠퇴할 수 있다고 경고하며, 이를 AI 유도 인지 위축(AI-induced cognitive atrophy)이라는 개념으로 제시했다.
인도 작가의 글쓰기가 서구식으로 변해, 문화적 다양성 위협
AI 사용의 또 다른 심각한 문제는 인지적 표준화(cognitive standardization) 현상이다. 수십억 명의 사람들이 동일한 검색 엔진, 동일한 콘텐츠 필터, 동일한 글로벌 데이터베이스로 훈련된 대화형 비서를 사용한다면, 사고 패턴의 표준화를 목격할 위험이 있다. 혁신과 문화를 주도하는 아이디어와 추론의 다양성이 지배적인 AI가 제공하는 응답의 과도한 동질성으로 인해 위협받을 수 있다.
2025년 연구에 따르면, 서구 언어 모델 기반의 텍스트 제안 시스템을 사용하는 인도 작가들의 글쓰기 스타일이 서구 규범에 순응하는 것으로 나타났다. 이러한 AI의 문화적 편향 현상은 자신의 환경에 특정한 문화적 뉘앙스를 희생하면서 표현의 다양성을 지우는 데 기여한다.
더 나아가 사이언스(Science)지에 발표된 도시(Doshi) 등의 2024년 연구는 AI 접근이 개인의 창의성을 증가시킬 수 있지만, 동시에 결과물의 집단적 다양성을 감소시키는 경향이 있다는 점을 밝혔다. AI 지원으로 작성된 이야기들은 지원 없이 작성된 것들보다 서로 더 유사했다. 이는 AI의 대규모 사용이 우리를 모두 같은 방식으로 생각하게 만드는지에 대한 중요한 사회인지적 문제를 제기한다.
편향된 AI가 인간의 판단 오류 증폭, 2023년 연구로 입증
알고리즘은 중립적이지 않다. AI 시스템은 훈련된 데이터나 설계자가 설정한 목표에서 비롯된 편향을 전달할 수 있다. 알고리즘 편향 연구는 AI 시스템이 차별이나 고정관념을 재생산하는 수많은 사례를 기록했다.
2023년 발표된 비센테(Vicente)와 마투테(Matute)의 연구는 결정적인 증거를 제시했다. 편향된 AI의 권장 사항을 따르는 인간 의사결정자들이 조언이 잘못될 수 있다는 것을 알고 있었음에도 불구하고, 기계와 동일한 판단 오류를 채택하게 되었다는 것이다. 다시 말해, AI는 편향을 전파할 뿐만 아니라 자동 신뢰나 의사결정 순응에 대한 우리의 경향을 강화함으로써 인간의 마음 속에서 편향을 증폭시킬 수 있다.
이러한 발견은 기술에 관한 비판적 교육의 중요성을 새롭게 한다. 편재하는 AI 시대에 알고리즘의 한계와 편향을 이해하는 것은 계몽된 인간 사고의 구성 요소가 된다. 이는 단순히 기술적인 문제가 아니라, 우리의 신념 형성, 시민으로서의 선택, 인공지능에 의해 필터링된 정보 환경에서 사회의 응집력에 영향을 미치기 때문에 본질적으로 인지적이고 사회적인 문제다.
AI 거버넌스와 비판적 사고 교육이 인간 자율성 보호의 핵심
이 모든 발전은 AI에 대한 윤리적 성찰의 더 넓은 틀 안에 포함된다. 기술에 대한 책임 있는 거버넌스의 필요성은 그 어느 때보다 명백하다. 2021년 유네스코(UNESCO)는 AI 윤리에 관한 권고안을 채택했고, 유럽연합(EU)은 고위험 사용을 엄격하게 규제하는 일련의 규정인 AI법(AI Act)을 작업하고 있다.
개념적 수준에서, 현대 사상가들은 AI와 관련된 세 가지 주요 윤리적 우려 영역을 확인했다. 프라이버시와 감시, 편향과 차별, 그리고 마지막으로 중요한 결정에서 인간 판단의 격하 문제다. 철학자 마이클 샌델(Michael Sandel)이 강조한 후자는 사고에 대한 영향과 직접적으로 관련이 있다. 지능형 기계가 우리를 대신해서 잘 생각할 수 있을까, 아니면 의심, 공감, 실천적 지혜와 같은 인간 숙고의 요소들이 있어서 어떤 알고리즘도 결코 대체할 수 없을까?
2025년 현재, 이 질문은 여전히 열려 있다. 윤리적 명령은 AI와 공존할 방법을 찾아 인류에 대한 이익(추론 능력 향상, 지루한 작업 제거, 지식 접근 개선)을 극대화하면서 해악(사고의 표준화, 인지적 자율성 상실, 새로운 디지털 불평등 등)을 최소화하는 것이다.
리포트는 이를 위해 교육, 시스템 투명성, 편향에 대한 경계, 필요할 때마다 의사결정 루프에 인간을 유지하는 것이 필요하다고 제안한다. 더 근본적으로, 이것은 인공지능에 의해 점점 더 공동 관리되는 세계에서 우리를 인간으로 만드는 것, 즉 비판적 사고, 창의성, 아이디어의 다양성, 도덕적 책임을 보존하는 것에 관한 것이다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. 인지적 오프로딩이란 무엇이며, 왜 문제가 되나요?
A: 인지적 오프로딩은 기억, 계산, 의사결정 등의 정신적 기능을 외부 도구나 AI에 위임하는 현상을 말합니다. 적절히 사용하면 효율성을 높일 수 있지만, 과도하게 의존하면 비판적 사고력이나 기억력 같은 인지 능력이 약화될 수 있습니다. 마치 계산기에만 의존하면 암산 능력이 떨어지는 것과 같은 원리입니다.
Q2. AI가 창의성을 높인다면서 동시에 표준화를 초래한다는 것은 무슨 의미인가요?
A: 개인 차원에서 AI는 새로운 아이디어를 제공하여 창의성을 자극할 수 있습니다. 하지만 많은 사람들이 같은 AI 도구를 사용하면 결과물이 서로 비슷해지는 경향이 나타납니다. 2024년 사이언스 연구에 따르면, AI 지원으로 작성된 이야기들은 지원 없이 작성된 것보다 서로 더 유사했습니다. 개인의 독특한 문체나 문화적 특성이 희석되고 비슷한 스타일로 수렴하게 됩니다.
Q3. AI 시대에 비판적 사고를 유지하려면 어떻게 해야 하나요?
A: 가장 중요한 것은 AI를 보조 도구로만 활용하고, 최종 판단과 의사결정은 스스로 내리는 습관입니다. AI가 제공하는 정보를 무비판적으로 받아들이지 말고, 여러 출처를 확인하고, 알고리즘의 편향 가능성을 인식하며, 정기적으로 AI 없이 스스로 생각하고 창작하는 시간을 가지는 것이 도움이 됩니다.
해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.
논문명: The Impact of Artificial Intelligence on Human Thought
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.
AI Matters 뉴스레터 구독하기












