NVIDIAは2026年1月5日(米国時間)、「CES 2026」において、次世代AIプラットフォーム「NVIDIA Rubin」を発表した。新設計のチップ6個で構成され、5個の最新世代技術によって、推論トークンコストを10分の1、MoEトレーニング使用GPUを4分の1に削減できるという。
NVIDIAは2026年1月5日(米国時間)、「CES 2026」(2026年1月6〜9日、米国ネバダ州ラスベガス)において、次世代AIプラットフォーム「NVIDIA Rubin」(以下、Rubin)を発表した。
本製品は、「Vera CPU」「Rubin GPU」「NVLink 6 スイッチ」「ConnectX-9 SuperNIC」「BlueField-4 DPU」「Spectrum-6イーサネットスイッチ」という新設計のチップ6個で構成される。
大規模AIファクトリー向けCPUで最も電力効率に優れるというVera CPUに加え、第6世代NVLinkインターコネクトテクノロジー、第3世代Transformer Engine、第3世代Confidential Computing、第2世代RAS Engineという5個の最新世代技術によって、「NVIDIA Blackwell」プラットフォームと比べ、推論トークンを最大10分の1のコストで提供し、MoE(Mixture of Experts)モデルのトレーニングに必要なGPU数を4分の1に削減できるという。
推論コンテキストをギガスケールで拡張するために設計されたという、次世代のAIネイティブストレージインフラ「NVIDIA Inference Context Memory Storage Platform」を導入する。BlueField-4 DPUの搭載により、AIインフラ全体でKVキャッシュデータを効率的に共有および再利用することが可能。応答性とスループットが向上し、エージェント型AIの予測可能で電力効率に優れたスケーリングができるとする。
またBlueField-4 DPUでは、システムレベルのトラストアーキテクチャ「ASTRA(Advanced Secure Trusted Resource Architecture)」も導入している。
Spectrum-6イーサネットスイッチシステムは、従来の方法と比較して信頼性を10倍、稼働時間を5倍に向上させつつ、5倍の電力効率を実現したという。
Rubinプラットフォームは、72個のRubin GPU、36個のVera CPUなどを搭載するラックスケールソリューション「Vera Rubin NVL72」と、8個のRubin GPUをNVLinkで接続するためのサーバボードシステム「HGX Rubin NVL8」で提供される。
すでに量産段階に入っていて、2026年後半から、パートナーによるRubinベース製品の提供が始まる予定だ。Vera Rubinベースのインスタンスを最初に展開するクラウドプロバイダーには、AWS(Amazon Web Service)やGoogle Cloud、Microsoft、OCI、CoreWeave、Lambda、Nebius、Nscaleなどが含まれる。
NVIDIAの創業者兼CEOのJensen Huang氏は「トレーニングと推論の両方におけるAIコンピューティングの需要が急増している中、Rubinは絶好なタイミングで登場した。新世代のAIスーパーコンピュータを年次サイクルで提供し、6チップにわたる緊密な協調設計により、RubinはAIの次のフロンティアに向けて大きな飛躍を遂げる」とコメントしている。
「SDV開発の促進役」目指すルネサス 最新R-CarのデモをCESで初公開
NVIDIA「フィジカルAIのブレークスルー到来」 CESに新型ロボ多数登場
AIグラス向けに新型超低消費電力DSPマイコンを発表、TDK
Intel、初の18Aプロセス採用「Core Ultraシリーズ3」を正式発表
ソニー・ホンダモビリティが次世代「AFEELA」を初公開、28年以降に米国投入へCopyright © ITmedia, Inc. All Rights Reserved.
記事ランキング