초거대 언어모델의 진화, AI PC 시장의 확산, 생성형 콘텐츠의 일상화까지... AI는 지금, 그 어느 때보다 빠르게 우리 삶 깊숙이 스며들고 있다. 하지만 기술이 앞서갈수록 그에 따른 사회적 책임과 신뢰의 무게도 함께 커지고 있다. 이제 우리는 단순한 ‘기술적 우수성’이 아니라, 그 기술이 사회 속에서 어떻게 작동하고, 어떤 결과를 만드는가를 묻기 시작했다. IT 기자의 시선으로, 성능을 넘어선 AI의 ‘사회성’이라는 새로운 국면을 들여다본다.
성능 경쟁의 시대는 저물고 있다
2025년 현재, AI의 화두는 더 이상 ‘성능 경쟁’에 머물러 있지 않다. 초거대 언어모델의 발전, 칩셋 기술의 고도화, 자동화 기능의 일상화는 이제 기술의 한계를 시험하는 단계를 넘어, AI가 사회 전반에서 어떤 기준과 원칙 아래 활용되어야 하는가로 시선이 옮겨가고 있다. “얼마나 똑똑한가?”보다는 “그 똑똑함이 우리에게 어떤 영향을 주는가?”에 대한 질문이, 기술계는 물론 언론, 법조계, 일반 사용자까지 공통의 고민으로 번지고 있다.
초거대 모델의 진화… 하지만 질문은 달라졌다
메타는 오픈소스 기반의 ‘Llama3’ 출시를 예고, 오픈AI는 차세대 모델 ‘GPT-5’ 공개를 준비하고 있다. 모델의 크기, 처리 속도, 학습량은 역대 최고 수준에 이를 것으로 보인다. 하지만 그 진보 앞에서 던져지는 질문은 이전과 다르다.
“이 모델이 만든 정보는 얼마나 신뢰할 수 있는가?"
"누구의 데이터를, 어떤 방식으로 학습했는가?”
“AI가 잘못된 결과를 생성했을 때, 책임은 누구에게 있는가?”
AI는 단지 ‘잘 작동하느냐’가 아니라, 사회와 얼마나 조화롭게 작동할 수 있느냐로 평가받고 있다.
AI 뉴스, 신뢰와 편집권 사이
국내 포털과 언론사 간에도 AI 뉴스 생성 문제는 핵심 갈등 요소다. 일부 포털은 AI 기반의 뉴스 편집과 콘텐츠 자동화를 시도 중이지만, ‘출처 표기 누락’, ‘오보 발생 시 책임소재 불분명’ 등의 문제가 연이어 제기되고 있다. 2024년 말, 한국언론진흥재단을 포함한 7개 단체는 ‘AI 활용 뉴스 제작 준칙’을 공동 발표하며 다음과 같이 강조했다. “AI는 도구일 뿐이다. 저널리즘의 기본 원칙은 반드시 사람이 책임져야 한다.” AI 기술을 언론에 도입할 수 있는 범위와 방식에 대한 사회적 합의의 필요성이 커지고 있다.
AI 칩 성능 전쟁… 소비자의 관심은 ‘활용’으로 이동
AI PC 시장에서도 유의미한 전환이 감지된다. 인텔은 ‘코어 울트라’에 NPU를 내장하고, 퀄컴과 AMD도 AI 연산 성능을 내세우며 본격적인 NPU 전쟁에 뛰어들었다. 초기에는 ‘TOPS 몇 점’이 주요 마케팅 지표였다. 하지만 지금 소비자들이 궁금해하는 건 이렇다. “그 성능이 실제 내 업무에 어떤 도움을 주는가?”, “내가 쓰는 앱, 플랫폼에서 실질적으로 체감되는 변화는 무엇인가?” 기술의 언어는 여전히 빠르지만, 이제는 사용자 경험이라는 현실의 언어와 맞닿아야 한다.
생성형 AI 저작권·윤리 논쟁, 글로벌화 양상
생성형 AI의 핵심 쟁점인 학습 데이터의 정당성 문제는 국내외를 막론하고 법적 분쟁으로 비화되고 있다. 미국과 유럽에서는 창작자 단체들이 “AI가 저작권을 침해하며 만들어낸 결과물로 수익을 올리고 있다”며 집단소송에 돌입했고, 국내에서도 유사 사례 및 공정이용 논쟁이 수면 위로 올라오고 있다. 뿐만 아니라, 일부 플랫폼은 AI 콘텐츠에 대한 사전 필터링·차단 알고리즘을 도입하며 표현의 자유와 플랫폼의 책임 사이에서 미묘한 줄타기를 하고 있다. 이는 단지 기술적 접근이 아니라, 사회 규범과 법적 정의의 영역으로 AI가 들어섰다는 방증이다.
* AI를 보는 세 가지 관점. 나는 어느 쪽일까?
낙관적 시선
생산성과 창의성 확대, 인간 협력 기반의 기술 진화
비판적 시선
오보, 편향, 감시사회 우려… 책임의 공백 문제
균형적 시선
기술은 도구, 제도와 투명성 구축이 핵심
생산성과 창의성 확대, 인간 협력 기반의 기술 진화
오보, 편향, 감시사회 우려… 책임의 공백 문제
기술은 도구, 제도와 투명성 구축이 핵심
성능의 시대는 끝나지 않았지만, 이제는 사회성이다
AI가 빠르게 진화하고 있지만, 이제 우리는 ‘무엇이 가능해졌는가’보다 ‘어떻게 가능해야 하는가’를 물어야 할 때다. AI 기술은 중립적일 수 있어도, 그 사용 방식과 결과는 분명히 사회적이다. 지금 이 시점에서 가장 중요한 것은, AI가 만들어낸 결과에 대해 누가 책임지고, 어떻게 설명할 수 있는가다. AI는 더 이상 단순한 기술의 영역에 머물러 있지 않다. 그것은 인간의 판단, 사회의 규범, 공공의 신뢰와 함께 작동하는 사회 시스템이자 공적 자산이 되어가고 있다. 성능은 여전히 중요하다. 하지만 그 기술이 어떻게 사회와 조화롭게 작동하느냐는, 앞으로의 AI가 넘어야 할 가장 본질적인 과제가 되고 있다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com