NVIDIA Blackwell Ultra DGX SuperPOD は、企業がすぐに利用可能な AI スーパーコンピューターを提供し、AI ファクトリーの構築を支援
2025年3月19日(水)10時46分 PR TIMES
- Equinix は、AI インフラの世界的な需要に対応するために、DGX GB300 および DGX B300 システム向けに Blackwell 対応施設を事前構成したスペースと共に NVIDIA Instant AI ファクトリー サービスを初めて提供
[画像: https://prcdn.freetls.fastly.net/release_image/12662/513/12662-513-df630959c5c2babfcf826c68746aeeb0-1280x680.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
カリフォルニア州サンノゼ - GTC - 2025 年 3 月 18 日 - NVIDIA は本日、NVIDIA Blackwell Ultra GPU(https://nvidianews.nvidia.com/news/nvidia-blackwell-ultra-ai-factory-platform-paves-way-for-age-of-ai-reasoning) を搭載した世界最先端のエンタープライズ AI インフラである NVIDIA DGX SuperPOD(TM)(https://www.nvidia.com/ja-jp/data-center/dgx-superpod/)を発表しました。これは、最先端のエージェント型 AI リーズニングを実現する AI ファクトリー スーパーコンピューティングをさまざまな業界の企業に提供するものです。
企業は、NVIDIA ネットワーキングと統合された新しい NVIDIA DGX(TM) GB300(https://www.nvidia.com/en-us/data-center/dgx-gb300/) および NVIDIA DGX B300(https://www.nvidia.com/en-us/data-center/dgx-b300/) システムを使用して、FP4 の精度で NVIDIA Hopper システムよりも最大 35 倍高速な AI リーズニングを実現する、すぐに使用可能な DGX SuperPOD AI スーパーコンピューターを提供することができます。
AI ファクトリーは、エージェント型、生成、フィジカル AI ワークロード特化したインフラを提供します。これには、本番環境で実行するアプリケーション向けに、AI の事前トレーニング、事後トレーニング、テストタイム スケーリング(https://blogs.nvidia.co.jp/blog/ai-scaling-laws/)のための膨大なコンピューティング リソースが必要になる場合があります。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「AI は光速で進化しています。企業はリーズニング AI と推論のタイム スケーリングの処理要求を満たすために拡張可能な AI ファクトリーの構築を競い合っています。NVIDIA Blackwell Ultra DGX SuperPOD は、エージェント型およびフィジカル AI の時代に、すぐに使用可能な AI スーパーコンピューティングを提供します」
DGX GB300 システムは、36 基の NVIDIA Grace(TM) CPU(https://www.nvidia.com/ja-jp/data-center/grace-cpu/) と 72 基の NVIDIA Blackwell Ultra GPU(https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/) を含む NVIDIA Grace Blackwell Ultra Superchip と先進的なリーズニング モデルを基にリアルタイムでエージェントが応答できるように設計されたラックスケールで液冷式のアーキテクチャを特徴とします。
空冷式 NVIDIA DGX B300 システムは、NVIDIA B300 NVL16 アーキテクチャを活用し、あらゆるデータセンターが生成およびエージェント型 AI アプリケーションの計算要求に対応できるように支援します。
高度なアクセラレーテッド インフラに対する需要の拡大に対応するため、NVIDIA は Blackwell Ultra を搭載した NVIDIA DGX SuperPOD を特徴とするマネージド サービスである NVIDIA Instant AI Factory も発表しました。Equinix(https://blog.equinix.com/blog/2025/03/18/future-proofing-your-enterprise-ai-strategy-with-ai-ready-infrastructure/) は世界 45 の市場にある事前構成済みの液冷または空冷式 AI 対応データセンターで、新しい DGX GB300 および DGX B300 システムを初めて提供します。
DGX GB300 を搭載した NVIDIA DGX SuperPOD が、AI リーズニング時代を加速
DGX GB300 システムを搭載した DGX SuperPOD は、NVIDIA NVLink(TM)(https://www.nvidia.com/ja-jp/data-center/nvlink/)、NVIDIA Quantum-X800 InfiniBand(https://www.nvidia.com/ja-jp/networking/products/infiniband/quantum-x800/)、NVIDIA Spectrum-X(TM) イーサネット(https://www.nvidia.com/ja-jp/networking/spectrumx/) ネットワークを介して接続された NVIDIA Grace Blackwell Ultra Superchip を最大数万基まで拡張可能で、最も計算負荷の高いワークロードのトレーニングと推論を高速化します。
DGX GB300 システムは、Hopper システムと比較して 30 倍のエネルギー効率と、38TB の高速メモリを提供し、エージェント型 AI とリーズニング アプリケーションにおける多段階リーズニングのために比類のないパフォーマンスを大規模に提供します。
各 DGX GB300 システムに搭載された 72 基の Grace Blackwell Ultra GPU は、第 5 世代の NVLink テクノロジによって接続され、NVLink Switch システムを介して 1 つの巨大な共有メモリ スペースとなります。
各 DGX GB300 システムは、72 基の NVIDIA ConnectX(R)-8(https://www.nvidia.com/ja-jp/networking/infiniband-adapters/) SuperNIC を特徴とし、最大 800Gb/秒の高速ネットワークを実現します。これは前世代の 2 倍のパフォーマンスです。18 基の NVIDIA BlueField(TM)-3 DPU(https://www.nvidia.com/ja-jp/networking/products/data-processing-unit/) が、NVIDIA Quantum-X800 InfiniBand または NVIDIA Spectrum-X イーサネットと組み合わされ、大規模な AI データセンターでパフォーマンス、効率、セキュリティを加速します。
DGX B300 システムがあらゆるデータセンター向けの AI を高速化
NVIDIA DGX B300 システムはあらゆるデータセンターにエネルギー効率の高い生成 AI と AI リーズニングをもたらすために設計された AI インフラ プラットフォームです。
Blackwell Ultra GPU で高速化された DGX B300 システムは、推論で 11 倍高速な AI パフォーマンスとトレーニングで 4 倍の高速化を提供します。
各システムには、2.3TB の HBM3e メモリを搭載し、8 基の NVIDIA ConnectX-8 SuperNIC と 2 基の BlueField-3 DPU による高速なネットワークを備えています。
NVIDIA ソフトウェアが AI 開発と展開を加速
企業が自社のインフラ管理と運用を自動化できるよう、NVIDIA はまた、Blackwell ベースの DGX システム向けの AI データセンター運用およびオーケストレーション ソフトウェアである NVIDIA Mission Control(TM) を発表しました。
NVIDIA DGX システムは、エンタープライズ グレードの AI エージェントを構築および展開するための NVIDIA AI Enterprise(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) ソフトウェア プラットフォームをサポートしています。これには、本日発表された新しい NVIDIA Llama Nemotron(https://nvidianews.nvidia.com/news/nvidia-launches-family-of-open-reasoning-ai-models-for-developers-and-enterprises-to-build-agentic-ai-platforms) オープン リーズニング モデル ファミリーなどの NVIDIA NIM(TM)(https://www.nvidia.com/ja-jp/about-nvidia/press-releases/2024/generative-ai-microservices-for-developers/) マイクロサービス、AI エージェントのパフォーマンスをオーケストレーションし、最適化するために使用する NVIDIA AI Blueprint(https://blogs.nvidia.com/ai-agents-blueprint/)、フレームワーク、ライブラリ、ツールが含まれます。
NVIDIA Instant AI Factory がインフラ需要に対応
NVIDIA Instant AI Factory は、Blackwell Ultra を搭載した NVIDIA DGX SuperPOD とNVIDIA Mission Control ソフトウェアを特徴とする Equinix マネージド サービスを供します。
世界中にある Equinix の専用施設により、このサービスは最先端のモデル トレーニングとリアルタイム リーズニング ワークロードに最適化された、完全にプロビジョニングされたインテリジェンス生成 AI ファクトリーを企業に提供します。これにより、展開までにインフラ計画にかかる数か月もの時間を短縮します。
提供予定
DGX GB300 またはDGX B300 システムを搭載した NVIDIA DGX SuperPOD は、今年中にパートナーから提供予定です。
NVIDIA Instant AI Factory は、今年中に提供予定です。
詳細については、NVIDIA GTC の基調講演(https://www.nvidia.com/ja-jp/gtc/keynote/)をご覧いただき、3 月 21 日まで開催される本イベントで NVIDIA と業界のリーダーたちによるセッションに参加登録(https://www.nvidia.com/gtc/pricing/)してください。
※本発表資料は米国時間 2025 年 3 月 18 日に発表されたプレスリリース(https://nvidianews.nvidia.com/news/blackwell-ultra-dgx-superpod-supercomputer-ai-factories)の抄訳です。
NVIDIAについて
NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。