・NVIDIA システムの専門家が即時 AI インフラストラクチャの導入を迅速に実現新たに高効率な液冷ラックスケール アーキテクチャを特徴とする新しい DGX SuperPOD は、NVIDIA DGX™ GB200 システムで構築され、FP4 精度で 11.5 エクサフロップスの AI スーパーコンピューティングと 240 テラバイトの高速メモリを提供し、ラックを追加することでさらに拡張できます。
各 DGX GB200 システムは、36 基の NVIDIA Grace CPU と 72 基の NVIDIA Blackwell GPU を含む 36 基の NVIDIA GB200 Superchip を備えており、第 5 世代の NVIDIA NVLink®(NVIDIA の創業者/CEO であるジェンスン フアン は次のように述べています。「NVIDIA DGX AI スーパーコンピューターは、AI 産業革命の工場です。新しい DGX SuperPOD は、NVIDIA アクセラレーテッド コンピューティング、ネットワーキング、ソフトウェアの最新の進歩を組み合わせて、あらゆる企業、業界、国が独自の AI を改良し、生成できるようにします」
Grace Blackwell 搭載のDGX SuperPOD は 8 台以上の DGX GB200 システムを備えており、NVIDIA Quantum InfiniBand 経由で接続することで、数万の GB200 Superchip まで拡張できます。次世代の AI モデルを強化するための大規模な共有メモリ空間を実現するために、顧客は NVLink で接続された 8 台の DGX GB200 システム内の 576 基の Blackwell GPU を接続する構成を展開可能です。https://nvidianews.nvidia.
DGX B200 は、世界中の企業で使用されている空冷式の従来のラックマウント型 DGX 設計の第 6 世代です。新しい Blackwell アーキテクチャ DGX B200 システムには、8 基の NVIDIA B200 Tensor コア GPU(https://www.nvidia.com/ja-jp/data-center/dgx-superpod/ DGX B200 システムには、新しい Blackwell アーキテクチャに FP4 精度機能が組み込まれており、最大 144 ペタフロップスの AI パフォーマンス、1.4 TB の大容量 GPU メモリ、および 64TB/秒のメモリ帯域幅を提供します。これにより、1兆パラメータ モデルのリアルタイム推論が前世代に比べて 15 倍高速化されます。https://www.nvidia.
日本 最新ニュース, 日本 見出し
Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。
ソース: topitmedia - 🏆 93. / 51 続きを読む »
ソース: asciijpeditors - 🏆 98. / 51 続きを読む »
ソース: CasaBRUTUS - 🏆 109. / 51 続きを読む »
ソース: asciijpeditors - 🏆 98. / 51 続きを読む »
ソース: PRTIMES_TECH - 🏆 113. / 51 続きを読む »
ソース: PRTIMES_TECH - 🏆 113. / 51 続きを読む »