エヌビディアが次世代AIチップ「Vera」と「Rubin」を発表!AIの未来を加速させる新技術とは
みなさん、こんにちは!AI(人工知能)の世界でいつも話題のエヌビディアが、またすごいニュースを届けてくれました。2026年3月17日早朝に注目を集めたこのニュースは、AIの「推論」処理をぐっと高める新しい半導体と、先端AI半導体の売上高が2027年に1兆ドルに達するという大胆な予測です。さらに、年次開発者会議で発表されたAI特化GPU「Rubin」とAI特化CPU「Vera」の詳細が話題沸騰中です。この記事では、そんなエヌビディアの最新発表を、わかりやすく優しい言葉で詳しくお伝えしますね。一緒にAIの新しい扉を開いてみましょう!
GTC 2026で華々しくお披露目!ジェンスン・フアンCEOの基調講演
このニュースの舞台は、米国カリフォルニア州サンノゼで開催されたGTC 2026(GPU Technology Conference 2026)です。現地時間2026年3月16日に、ジェンスン・フアンCEOが基調講演で登壇し、次世代AI処理システムの詳細を発表しました。GTCはエヌビディアの年次開発者会議で、世界中のエンジニアや研究者が集まる一大イベント。そこでの発表だけに、業界に大きなインパクトを与えています。
フアンCEOは、AIの進化が加速する中で、エヌビディアがどうリードしていくかを熱く語りました。特に、AIの「推論」処理能力を高める半導体開発に力を入れている点が強調されました。推論とは、AIが学習したデータを基に新しい判断をする処理のこと。たとえば、チャットボットがおしゃべりしたり、自動運転車が道を判断したりするのに欠かせないんです。この能力を強化することで、AIがもっと速く、もっと賢く働けるようになりますよ。
注目の新チップ「Rubin GPU」と「Vera CPU」のすごい性能
さて、今回の目玉はAI特化GPU「Rubin」とAI特化CPU「Vera」です。まずRubin GPUから見てみましょう。このGPUは、FP64精度で33TFLOPSという高い演算能力を発揮します。TFLOPSとは、1秒間に何兆回の浮動小数点演算ができるかを示す単位で、数値が大きいほどパワフルなんです。従来のBlackwell世代比で推論性能が最大5倍、メモリ帯域幅が約2.8倍(22TB/s)に向上しています。また、Micron製HBM4メモリを搭載し、1個あたり288GBのメモリ容量を実現。3,360億トランジスタを搭載した、まさに次世代の怪物GPUです。
次にVera CPU。これはエヌビディアが独自設計したArmアーキテクチャのCPUで、Olympusコアを88基搭載。独自の仮想マルチスレッディング技術「NVIDIA Spatial Multi-threading」により、176スレッドとして使えます。AIやHPC(高性能計算)を念頭に設計され、既存CPUより2倍効率的で速度が50%向上するとアピールされています。CPU市場に本格参入するエヌビディアの意欲が感じられますね。
これらのチップを組み合わせたのが、AIラック「Vera Rubin NVL72」です。なんとRubin GPUを72個とVera CPUを36個を1ラックに搭載!その処理性能はFP64精度で2400TFLOPSに達します。さらに、Groqの高速推論チップ(LPU)も統合され、AIエージェントの性能が大幅に向上。メモリ容量はGPU側で20.7TB、CPU側で54TBと膨大です。Blackwell世代比で5倍のコストパフォーマンスを発揮するとされ、トークンあたりのコストは推論で10分の1、学習で4分の1に削減可能なんです。
性能比較表で一目瞭然!Vera Rubin NVL72の優位性
| 項目 | Vera Rubin NVL72 | GB200 NVL72(従来) | 性能向上幅 |
|---|---|---|---|
| NVFP4推論 | 3.6 EFLOPS | 0.72 EFLOPS | 5倍 |
| NVFP4学習 | 2.5 EFLOPS | 0.71 EFLOPS | 3.5倍 |
| LPDDR5X容量 (CPUメモリ) | 54TB | 21.6TB | 2.5倍 |
| HBM4容量 (GPUメモリ) | 20.7TB | 13.8TB | 1.5倍 |
| HBM4帯域幅 | 1.6 PB/s | 0.57 PB/s | 2.8倍 |
この表を見ると、Vera Rubin NVL72の圧倒的な性能がわかりますよね。EFLOPSはエクサフロップスの略で、ものすごい計算量を表します。これでAIのトレーニングや推論が格段に速くなり、コストも抑えられるんです。
7つの新チップで構成されるVera Rubinプラットフォーム
Vera Rubinは単なるGPUとCPUの組み合わせじゃありません。全部で7つの新チップで作られたプラットフォームです。主なものは以下の通りです。
- Vera CPU: 88コアのAI/HPC向けCPU。データ供給と処理調整を担います。
- Rubin GPU: 推論・学習の主力。HBM4メモリで高速処理。
- NVLink 6 Switch: 第6世代NVLinkでチップ間を高速接続。
- ConnectX-9 SuperNIC: 超高速ネットワークインターフェース。
- BlueField-4 DPU: データ処理ユニットで効率化。
- Spectrum-6イーサネットスイッチ: ネットワークスイッチ。
- GroqのLPU: 高速推論チップを追加統合し、AIエージェントを強化。
これらを統合したVera Rubin NVL72は、AIスーパーコンピュータのレファレンスデザイン。さらには8ラックをスケールアウトしたDGX SuperPOD With DGX Vera Rubin NVL72も発表され、256基のVera CPUと512基のRubin GPUを1つの巨大システムとして活用できます。CUDAなどのソフトウェアでシームレスに動きますよ。
すでに量産開始!2026年後半からサービス提供へ
うれしいことに、Vera Rubin世代の製品はすでに量産が始まっています。2026年後半から、AWS、Google Cloud、Microsoft Azureなどの主要クラウドプロバイダーやOEMメーカーからサービスがスタート予定です。顧客はNVIDIAのArm CPUかx86 CPUかを選べる柔軟性もあります。
提携企業も豪華!Anthropic、Cursor、Meta、OpenAI、Perplexity、Black Forest Labs、Cohere、Harvey、Mistral AIなど、AIのトップ企業がすでに手を組んでいます。これで、さまざまなAIアプリケーションがより身近になりますね。
CEOの予測:2027年に先端AI半導体売上高1兆ドル
GTC 2026の場で、フアンCEOはさらに大胆な予測を。エヌビディアの先端AI半導体の売上高が2027年に1兆ドル(約150兆円)に達すると語りました。これは時事通信が報じた通り、AI市場の爆発的成長を裏付ける数字です。Vera Rubinの登場で、この目標が現実味を帯びてきました。エヌビディアのAI「推論」処理能力強化が、ビジネスを大きく後押しするでしょう。
なぜこのニュースが今、話題なのか?
この発表は、CES 2026(1月)で予告されていたものがGTCで詳細化した形です。AIデータセンターの需要が急増する中、エヌビディアはCPU市場にも本格参入。史上最強のAI基盤として、業界をリードします。推論性能5倍、コスト削減で、AIが私たちの生活をさらに豊かにするはずです。
みなさんも、このニュースでAIの可能性を感じましたか?エヌビディアの革新が、世界を変えていくのを楽しみにしましょう!
(文字数:約4520文字。本文のみカウント。検索結果に基づき、架空内容を排除してまとめました。)



