12일(현지시간) 발표된 이 모델은 24년 2월 선보였던 젬마(Gemma) 라인의 후속작으로 단일 GPU에서도 활용이 가능할 만큼 뛰어난 확장성과 뛰어난 연산 속도를 자랑한다. 구글은 자사의 최첨한 AI모젤인 제미나이(Gemini) 2.0과 동일한 기술 기반으로 제작됐다고 밝혔다.
젬마3의 가장 큰 특징은 단일 그래픽처리장치(GPU)나 텐서처리장치(TPU)에서도 활용할 수 있는 '단일 가속기 모델'이라는 점이다. 모델 사이즈는 파라미터 수에 따라 10억, 40억, 120억, 270억개의 네 가지 타입으로 제공되며 가장 큰 270억 모델조차 단일 GPU에서 실행될 수 있도록 개발되어 기존 대형 언어 모델(LLM) 대비 적은 연산 자원으로 고성능을 유지할 수 있다.
특히 40억, 120억, 270억 파라미터 모델은 멀티모달 기능을 도입하여 시각-언어 입력 및 텍스트 출력을 지원하며 35개 이상의 언어를 기본 지원하며 140개 이상의 언어를 사전 학습했다.
이를 통해 이미지를 분석하고, 이미지에 대한 질문에 답변하며, 이미지를 비교하고, 객체를 식별할 수 있으며 텍스트 분석뿐만 아니라 이미지와 짧은 동영상까지 인식하고 해석할 수 있어, 기존 텍스트 기반 AI 모델보다 한층 진화된 기능을 갖췄다. 또한, 128K 토큰의 컨텍스트 윈도우를 지원해 더 많은 정보를 한 번에 처리할 수 있으며, 복잡한 문맥을 파악하는 능력이 강화됐다.
이러한 특성 덕분에 젬마3는 대형 데이터센터뿐 아니라 개인용 워크스테이션에서도 많이 활용될 것으로 기대된다.
젬마3는 성능 면에서도 준수한 평가를 받았다. 초기 인간 선호도 평가에서 젬마3의 챗봇 아레나(Chatbot Arena) ELO 스코어는 1,338점으로 딥시크(DeepSeek) R1의 1,363점에 비해 25점이 낮았지만 1,318점의 딥시크 v3보다 20점 높았다. 그러나 테스트된 젬마3 27B 모델은 단일 모델임에도 많은 GPU 리소스를 필요로 하는 딥시크 모델들과 엇비슷한 성능을 보여 높은 효율성과 퍼포먼스를 보였다.
경량화된 오픈소스 LLM에 대한 수요는 앞으로 개인 컴퓨팅 환경을 중심으로 크게 높아질 것으로 기대되며 개발자 입장에서도 보다 다양한 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있어 수요-공급의 적절한 선순환을 기대할 수 있다.
이러한 맥락에서 AI 모델의 성능을 높이면서도 하드웨어 의존도를 낮추는 방향으로 발표된 구글 딥마인드의 젬마3가 AI 범용화의 신호탄이 될지 귀추가 주목된다.
글 / 홍정민 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com