NVIDIA가 최근 공개한 연구에서 소형 언어 모델(Small Language Models, SLM)이 AI의 미래 모델 구조로서 가치가 크다는 주장을 공식화하며 주목을 받고 있다. 이 발표는 AI 모델이 더욱 효율적이고 포용적으로 진화할 필요가 있음을 시사한다.
왼쪽) 언어 모델이 직접 주도하는 방식으로 언어 모델이 사람과 대화도 하고, 필요한 도구를 불러와서 일을 처리하는 데까지 전부 맡는다. 오른쪽) 코드가 주도하는 방식으로 언어 모델은 대화창 역할 정도만 하고, 실제 어떤 도구를 어떻게 쓸지는 전용 코드가 대신 조율한다.
NVIDIA의 “Small Language Models are the Future of Agentic AI” 논문은, SLM이 AI 에이전트를 작동시키는 핵심 과제를 수행하는 데 충분한 성능을 갖추고 있으며, LLM(대형 언어 모델)보다 높은 운영 효율성과 비용 대응력을 갖췄다는 점을 근거로 내세웠다. 특히, MetaGPT, Cradle, Open Operator 등 실제 시스템의 업무에서 40~70% 수준의 과제를 SLM만으로도 수행 가능한 것으로 나타났다.
SLM의 장점으로는 빠른 응답 속도, 낮은 비용, 로컬 실행 가능으로 정보 프라이버시 보호, 특정 업무에 최적화된 맞춤성 등이 꼽혔다. LLM과 달리 경량 구조를 활용해 스마트폰이나 IoT 디바이스에도 쉽게 통합할 수 있다는 점은 범용성과 접근성을 강화하는 요소다. 하지만 이러한 주장에도 불구하고, SLM 채택이 늦은 배경에는 다음과 같은 과제가 있는 것으로 분석된다.
2024년 한 해에만 LLM 인프라에 570억 달러 이상 투자된 현실에서, 기존 시스템을 쉽게 전환하기 어렵다는 점. AI 성능 벤치마크는 여전히 “더 큰 모델이 더 낫다”는 관점을 강화한다는 지적. 언론과 시장의 관심이 LLM에 집중되어 있어, SLM에 대한 인지도가 낮다는 점도 장애로 꼽힌다.
NVIDIA는 이러한 장벽을 넘기 위한 하이브리드 모델 전략을 제안했다. 즉, 일상적인 반복 작업은 SLM이 처리하고, 복잡한 대화나 추론이 필요한 경우에만 LLM을 보조적으로 활용하는 방식이다. 또한 개발자 인센티브와 전환 프레임워크 제공으로 SLM 생태계를 확산하겠다는 계획도 내놨다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com