広範なエコシステムによる採用
Veraの導入に向けてNVIDIAと連携している主要なハイパースケーラーには、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructureが含まれています。また、Dell Technologies、HPE、Lenovo、Supermicroをはじめとするグローバルシステムメーカーも、このテクノロジーを活用したサーバー設計を進めています。
NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Veraは、AIの転換点に登場しました。インテリジェンスがエージェント型になり、リーズニングし、行動できるようになるにつれて、その作業を調整するシステムの重要性が高まっています。CPUはもはやモデルをサポートするだけでなく、モデルを推進する役割を果たしています。画期的なパフォーマンスとエネルギー効率により、Veraはより迅速に思考し、さらなる拡張を実現するAIシステムを実現します」と述べています。
あらゆるデータセンターに対応する構成
NVIDIAは、256基の液冷式Vera CPUを統合した新しいVera CPUラックを発表しました。これにより、22,500以上の同時CPU環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。AIファクトリーは、単一ラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開、拡張できるとされています。
新しいVeraラックは、NVIDIA MGX™モジュラーリファレンスアーキテクチャを採用して構築されており、世界中の80社以上のエコシステムパートナーによってサポートされています。
NVIDIA Vera Rubin NVL72プラットフォームの一部として、Vera CPUはNVIDIA NVLink™-C2Cインターコネクトテクノロジを介してNVIDIA GPUとペアリングされています。1.8 TB/sのコヒーレント帯域幅(PCIe Gen 6の7倍)により、CPUとGPU間の高速データ共有を実現します。さらに、NVIDIAは、NVIDIA HGX™ Rubin NVL8システム向けに、VeraをホストCPUとして採用した新しいリファレンスデザインを発表しました。
Veraのシステムパートナーは、デュアルソケットCPUサーバー構成とシングルソケットCPUサーバー構成の両方で提供します。これは、強化学習、エージェント型推論、データ処理、オーケストレーション、ストレージ管理、クラウドアプリケーション、ハイパフォーマンスコンピューティングなどのワークロードに最適です。
すべての構成において、Veraは以下のNVIDIA製品と統合されます。
これにより、エージェント型AIに不可欠な高速化されたネットワーキング、ストレージ、セキュリティを実現し、顧客はプラットフォーム全体で統一されたソフトウェアスタックを維持しながら、特定のワークロードに最適化できます。
エージェント型スケーリングのための設計
Veraは、高性能かつエネルギー効率に優れたCPUコア、高帯域幅のメモリサブシステム、第2世代のNVIDIA Scalable Coherency Fabricを組み合わせることで、エージェント型AIと強化学習に共通する極限の使用状況下で、より高速なエージェント型応答を可能にします。
NVIDIA独自設計による88基のカスタムOlympusコアを搭載し、コンパイラ、ランタイムエンジン、分析パイプライン、オーケストレーションサービスに卓越したパフォーマンスを提供します。各コアはNVIDIA Spatial Multithreadingにより2つのタスクを同時実行でき、一貫した予測可能なパフォーマンスを提供します。これは、多数のジョブを同時実行するマルチテナントAIファクトリーに最適です。
エネルギー効率をさらに向上させるため、VeraはLPDDR5Xメモリをベースとした第2世代のNVIDIAの低消費電力メモリサブシステムを搭載し、最大1.2 TB/sの帯域幅を実現しています。これは汎用CPUと比較して2倍の帯域幅である一方で、消費電力は半分に抑えられています。
幅広いエコシステムからの支持
ストリーミングデータプラットフォーム大手のRedpandaは、Veraを活用してパフォーマンスを大幅に向上させています。RedpandaのCEO兼創業者であるAlex Gallego氏は、Apache Kafka互換ワークロードのテストで、他のシステムよりも大幅に優れたパフォーマンスを達成し、レイテンシを最大5.5倍低減したと述べています。
Vera CPUの導入を計画している国立研究機関には、ライプニッツスーパーコンピューティングセンター、ロスアラモス国立研究所、ローレンスバークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。TACCのハイパフォーマンスコンピューティングディレクター、John Cazes氏は、Veraのコアあたりのパフォーマンスとメモリ帯域幅は、科学計算にとって飛躍的な進歩であると述べています。
主要なクラウドサービスプロバイダーでは、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、VultrなどがVera CPUの導入を計画しています。
主要なインフラプロバイダーとして、以下の企業がVera CPUを採用しています。
- Aivres
- ASRock Rack
- ASUS
- Compal
- Cisco
- Dell
- Foxconn
- GIGABYTE
- HPE
- Hyve
- Inventec
- Lenovo
- MiTAC
- MSI
- Pegatron
- Quanta Cloud Technology (QCT)
- Supermicro
- Wistron
- Wiwynn
提供予定
NVIDIA Veraは現在量産中であり、今年後半にパートナーから提供される予定です。
NVIDIAに関する詳細は、NVIDIAのウェブサイトをご覧ください。
GTC基調講演のリプレイおよびセッションは、以下のリンクから参照できます。

