2026/01/06

NVIDIAがCESでGPU不発表!2.5トンAIサーバーと次世代生成AI革命

NVIDIAがCESでGPU不発表!2.5トンAIサーバーと次世代生成AI革命 のキービジュアル

NVIDIAがCESでGPU不発表!2.5トンAIサーバーと次世代生成AI革命

  • CESで初めてGPUを発表せず、代わりにVera Rubin計算プラットフォームを披露
  • 6種の新チップが同時に刷新され、AI訓練・推論性能が最大5倍に向上
  • DeepSeekをはじめとしたオープンソースAIモデルが業界を加速させ、エージェント時代が本格化

こんにちは!テックブロガーの○○です。皆さん、CESといえば華やかなガジェットや最新のスマホが目立ちがちですよね。でも、2026年のCESで一番話題になったのは、実は「GPUが出なかった」ことだったんです。NVIDIAのCEO、黄仁勋(Jensen Huang)氏が2.5トンものAIサーバーラックをステージに運び込んで見せた瞬間、会場は大きく沸きました。今回はその裏側にあるVera Rubin計算プラットフォームと、オープンソースAIモデル「DeepSeek」の衝撃的な影響について、詳しく解説していきますね。

1. なぜNVIDIAはGPUを出さなかったのか?

過去5年でNVIDIAは毎年CESで新しいRTXシリーズを発表してきました。昨年はRTX 50シリーズが登場し、ゲーマーやクリエイターの期待は最高潮に。ところが今年は、全く新しいテーマが掲げられました。「物理AIとロボティクス」――つまり、GPUだけでなく、AI全体を支えるハードウェアエコシステムの刷新です。

黄仁勋氏はステージで「次世代モデルを早く市場に出すには、チップだけでなくシステム全体を同時に進化させる必要がある」と語っています。これが「極致協同設計(Extreme Co‑Design)」と呼ばれる戦略です。実際、Vera Rubinプラットフォームは6つの新チップを一挙にリリースし、従来の「1〜2チップだけ更新」から大きく脱却しました。

2. Vera Rubin計算プラットフォームの全貌

2.1 6種の新チップが実現する驚異的な性能

以下が今回発表された主要コンポーネントです。

  • Vera CPU:88個のNVIDIAカスタムOlympusコア、176スレッド、システムメモリ1.5TB(Graceの3倍)
  • Rubin GPU:NVFP4推論性能50PFLOPS、前世代Blackwellの5倍、3360億トランジスタ
  • ConnectX‑9 ネットカード:800Gb/sイーサネット、プログラマブルRDMA
  • BlueField‑4 DPU:800G Gb/s DPU、64核Grace CPUと連携
  • NVLink‑6 スイッチチップ:最大72GPUを1つのノードとして統合、3.6TB/sの全体帯域
  • Spectrum‑6 光イーサネットスイッチ:512チャンネル×200Gbps、シリコンフォトニクス搭載

これらを組み合わせたNVL72システムは、前世代に比べて訓練性能が3.5倍、推論性能が5倍に向上しています。特に注目すべきは、トレーニング時のトークンあたりコストが1/10になる点です。AIスタートアップにとっては、開発コストが劇的に下がるチャンスと言えるでしょう。

2.2 設計のシンプル化と運用効率の向上

従来のスーパーコンピュータノードは、43本ものケーブルが必要で組み立てに2時間以上かかっていました。Vera Rubinは「0本ケーブル、6本の液冷管だけ」で5分で組み立て完了。さらに、総長3.2kmの銅ケーブルがNVLinkバックボーンとして配置され、400Gbpsの通信速度を実現しています。これにより、データセンターの構築コストと時間が大幅に削減されました。

3. 生成AIとオープンソースモデルの潮流

ハードウェアだけでなく、ソフトウェア面でも大きな変化が起きています。黄仁勋氏は「DeepSeek V1が業界に衝撃を与えた」と語り、オープンソースの推論システムが次々と登場していることを強調しました。

DeepSeekは中国のスタートアップが開発したオープンソースLLMで、現在はV3.2がリリースされています。Kimi k2と共に「オープンソース第一・第二位」の座を占め、約6か月ごとに新バージョンが登場するスピード感は、商用モデルに対抗できるほどです。

この流れを受けて、NVIDIAは自社のNemotronシリーズをオープンソース化し、DGX Cloudスーパーコンピュータ上で提供しています。さらに、La ProteinaやOpenFold 3といった専門領域向けモデルも同時に発表。生成AI、エージェント、ロボティクスといった多様なユースケースに対応できるエコシステムが形成されつつあります。

4. 日本企業への示唆

日本のAIベンチャーや大手メーカーにとって、今回の発表は大きな示唆を与えます。まず、AI訓練インフラのコスト削減が可能になることで、研究開発予算の配分を見直す余地が生まれます。次に、オープンソースLLMが急速に成熟している点は、独自モデルを一から構築する必要がなくなることを意味します。日本国内でも、AIチップやシステムインテグレーションに関わる企業は、NVIDIAの「全体最適」アプローチを参考に、ハードウェアとソフトウェアの協調設計を進めるべきでしょう。

5. まとめ:ハードとソフトが同時に進化する時代へ

今回のCESでNVIDIAが示したのは、単なる「新しいGPU」ではなく、AI全体を加速させる「プラットフォーム」そのものです。6つの新チップが協調し、トレーニングコストを劇的に削減、さらにオープンソースLLMが業界全体のイノベーションスピードを加速させています。

AIはもう「ハードだけ」でも「ソフトだけ」でも成功しません。ハードとソフトが同時に進化することで、初めて次世代の生成AIやエージェントが実用化へと近づくのです。皆さんも、次のAIプロジェクトを計画する際は、ハードウェアの選定だけでなく、エコシステム全体を俯瞰して検討してみてくださいね。

それでは、次回も最新テック情報をお届けしますのでお楽しみに!

出典: https://www.ifanr.com/1650803