
출처 : 라쿠텐 홈페이지
18일(현지 시간) 라쿠텐 그룹이 일본어에 특화된 대규모 언어모델(LLM) ‘Rakuten AI 3.0’을 발표했다. 회사 측에 따르면 이 모델은 약 7,000억 개의 파라미터를 갖춘 초대형 모델로, 일본어 LLM 가운데 국내 최대 규모에 해당한다. 해당 모델은 일본 경제산업성과 신에너지·산업기술종합개발기구(NEDO)가 추진하는 생성형 AI 개발 지원 프로젝트 ‘GENIAC(Generative AI Accelerator Challenge)’의 지원을 받아 개발됐다.
Rakuten AI 3.0은 Mixture of Experts(MoE) 아키텍처를 채택했다. 전체 파라미터 수는 약 7,000억 개에 이르지만, 추론 과정에서는 입력 내용에 따라 일부 전문 모델만을 선택적으로 작동시키는 구조를 적용해 연산 자원의 효율성을 높이고 운영 비용을 크게 절감할 수 있도록 설계됐다.
라쿠텐에 따르면 Rakuten AI 3.0은 일본어의 문맥 이해 능력과 자연스러운 표현력을 중점적으로 강화한 모델이다. 라쿠텐이 보유한 내부 데이터와 고품질 일본어 및 바이링구얼 데이터를 활용해 학습과 미세 조정이 이뤄졌다. 일본어 벤치마크 중 하나인 일본어판 MT-Bench에서는 8.88점의 성능 점수를 기록했다.

출처 : Ledge.ai 기사 중 일부 내용을 표로 재구성
사내 검증 결과, 동급 규모의 모델과 비교했을 때 최대 90%에 달하는 비용 절감 효과도 확인됐다는 설명이다. 연구 목적에 그치지 않고 실제 서비스 적용을 전제로 설계된 점이 이 모델의 주요 특징으로 꼽힌다. Rakuten AI 3.0은 라쿠텐의 생성형 AI 기반 플랫폼인 ‘Rakuten AI Gateway’에 통합돼 API 형태로 제공될 예정이다. 또한 ‘Rakuten AI’ 에이전트 플랫폼을 통해 라쿠텐 생태계 내 다양한 서비스에 순차적으로 적용될 계획이다.

출처 : Ledge.ai 기사 중 일부 내용을 표로 재구성
이번 개발은 GENIAC 프로젝트의 지원 체계 아래 진행됐다. GENIAC은 일본 내 생성형 AI 핵심 기술 강화와 사회적 활용 확대를 목표로, 연산 자원 제공과 연구개발 지원을 수행하는 국가 프로젝트다. 라쿠텐그룹은 Rakuten AI 3.0을 2026년 봄을 목표로 오픈 웨이트(open-weight) 모델 형태로 공개할 계획도 밝혔다. 일본어에 특화된 초대형 언어모델을 개방함으로써, 일본 내 생성형 AI 개발과 활용 저변을 한층 확대하겠다는 구상이다.
글 / 김지훈 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com







[