미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 CES 2026에서 엔비디아가 차세대 인공지능 시대를 겨냥한 신규 플랫폼 ‘엔비디아 루빈’을 공식 공개했다. 루빈 플랫폼은 첨단 AI 슈퍼컴퓨터 구축을 목표로 설계된 6종의 신규 칩으로 구성되며, 초대형 AI 시스템을 보다 낮은 비용으로 구축·배포·보안할 수 있는 새로운 기준을 제시한다는 점에서 업계의 주목을 받고 있다.
엔비디아는 루빈 플랫폼을 통해 AI 훈련과 추론 과정에서 급증하는 컴퓨팅 수요에 대응하고, 토큰당 비용과 에너지 효율 문제를 동시에 해결함으로써 AI 기술의 대중화를 본격적으로 가속하겠다는 전략이다.

젠슨 황 CEO “AI 훈련·추론 수요 폭증…루빈은 시의적절한 해답”
엔비디아 창립자 겸 CEO인 젠슨 황은 기조연설을 통해 “AI 훈련과 추론을 위한 컴퓨팅 수요가 어느 때보다 빠르게 증가하고 있는 상황에서 루빈의 등장은 매우 시의적절하다”며 “엔비디아는 매년 차세대 AI 슈퍼컴퓨터를 선보이고 있으며, 루빈은 6개 칩에 걸친 고도의 공동 설계를 통해 AI 성능과 효율성에서 비약적인 도약을 이룰 것”이라고 강조했다.
루빈 플랫폼은 세계 최대 규모의 AI 모델을 보다 빠르게 훈련하고, 추론 비용을 획기적으로 낮춰 기업과 연구기관이 AI를 실제 서비스로 구현하는 장벽을 크게 낮추는 데 초점을 맞췄다.
6개 핵심 칩으로 구성된 루빈 플랫폼
엔비디아 루빈 플랫폼은 훈련 시간과 추론 토큰 비용을 절감하기 위해 칩 전반에 걸친 공동 설계를 적용했다. 구성 요소로는 엔비디아 베라 CPU, 엔비디아 루빈 GPU, NVLink 6 스위치, ConnectX-9 슈퍼NIC, BlueField-4 DPU, Spectrum-6 이더넷 스위치가 포함된다. 이들 칩은 하나의 통합 시스템으로 동작하며, 대규모 AI 워크로드에 최적화된 성능과 안정성을 제공한다.
루빈이라는 이름은 우주에 대한 인류의 이해를 확장한 미국 천문학자 베라 플로렌스 쿠퍼 루빈에서 따왔다. 엔비디아는 그의 과학적 유산처럼, 루빈 플랫폼이 AI 기술의 새로운 지평을 여는 전환점이 되기를 기대하고 있다.
블랙웰 대비 토큰 비용 10분의 1…MoE 훈련 GPU도 4분의 1로
루빈 플랫폼에는 최신 NVLink 인터커넥트, 3세대 트랜스포머 엔진, 컨피덴셜 컴퓨팅, RAS 엔진, 엔비디아 베라 CPU 등 5가지 핵심 혁신 기술이 적용됐다. 이를 통해 에이전틱 AI, 고급 추론, 대규모 전문가 혼합 방식 모델 추론을 가속화하며, 토큰당 비용을 기존 블랙웰 플랫폼 대비 최대 10분의 1 수준으로 낮춘 것이 특징이다.
또한 대규모 MoE 모델 훈련에 필요한 GPU 수를 기존 대비 4배 줄일 수 있어, 초대형 AI 모델 개발에 필요한 인프라 부담을 획기적으로 완화할 수 있을 것으로 전망된다.
글로벌 빅테크와 AI 기업들, 루빈 생태계 합류
루빈 플랫폼은 공개와 동시에 글로벌 AI 생태계 전반에서 폭넓은 지지를 얻고 있다. 아마존 웹 서비스, 구글, 마이크로소프트, 오라클을 비롯해 메타, 오픈AI, 앤트로픽, xAI, 코어위브, 델 테크놀로지스, HPE, 레노버 등 주요 클라우드 서비스 제공업체와 AI 연구·스타트업들이 루빈 채택 계획을 밝혔다.
샘 올트먼은 “인텔리전스는 컴퓨팅 능력에 비례해 확장된다”며 “엔비디아 루빈 플랫폼은 첨단 인텔리전스의 혜택을 모두에게 확산시키는 데 중요한 역할을 할 것”이라고 평가했다. 일론 머스크 역시 “루빈은 AI를 위한 로켓 엔진과 같은 존재”라며 대규모 훈련과 배포에 최적화된 인프라라고 강조했다.
AI 네이티브 스토리지와 차세대 네트워킹까지 확장
엔비디아는 루빈 플랫폼과 함께 AI 네이티브 스토리지 개념인 ‘추론 컨텍스트 메모리 스토리지 플랫폼’을 도입했다. 이 플랫폼은 키-밸류 캐시 데이터를 효율적으로 공유·재사용해 추론 응답성과 처리량을 크게 높이며, 에이전틱 AI의 예측 가능한 확장을 지원한다.
네트워킹 측면에서는 스펙트럼-6 이더넷과 스펙트럼-X 이더넷 기술을 통해 고효율·고복원력 AI 네트워크 환경을 구현한다. 이를 통해 수백만 GPU 규모의 AI 팩토리로 확장 가능한 토대를 마련했다는 설명이다.
2026년 하반기 본격 출시…차세대 AI 데이터센터 핵심으로
엔비디아에 따르면 루빈 플랫폼은 현재 본격 양산 단계에 있으며, 루빈 기반 제품은 2026년 하반기부터 파트너사를 통해 순차적으로 출시될 예정이다. AWS, 구글 클라우드, 마이크로소프트 애저, OCI를 비롯한 주요 클라우드 사업자들이 가장 먼저 베라 루빈 기반 인스턴스를 선보일 계획이다.
업계에서는 엔비디아 루빈 플랫폼이 향후 AI 데이터센터와 클라우드 인프라의 표준으로 자리 잡으며, 초거대 AI 모델과 멀티모달·에이전틱 AI 시대를 본격적으로 여는 핵심 기반이 될 것으로 보고 있다.
이준문 기자/jun@newstap.co.kr
ⓒ 뉴스탭(https://www.newstap.co.kr) 무단전재 및 재배포금지
[뉴스탭 인기 기사]
· 빽다방, 3,900원 딸기 신메뉴 4종 출시…파르페부터 루이보스티까지
· 모나리자, 충남 취약 어르신에 1억2천만 원 상당 마스크 기부
· 레이저, CES 2026서 ‘온디바이스 AI’ 전략 공개…AI 워크스테이션·에지 가속기 첫선
· 소비자와 함께 만드는 지속가능성 선순환, 네슬레코리아의 커피·초콜릿 혁신
· 레고, 스크린 없는 미래 놀이 공개… CES 2026서 ‘스마트 플레이’ 첫선








