NVIDIA DGX

  1. AI/ディープラーニング

AI・ディープラーニングに不可欠なシステムNVIDIA DGXは、GPU最適化ソフトウェアと簡素化された管理が組み合わさった統合ソリューションによって、AI研究を加速させます。
アルゴグラフィックスは、NVIDIA Compute DGX Elite パートナーに認定されています。

AIインフラストラクチャの金字塔
NVIDIA DGX H100

DGX H100は、世界初の専用AIインフラストラクチャの第4世代であり、完全に最適化されたハードウェアおよびソフトウェア・プラットフォームです。新しいNVIDIA AIソフトウェア・ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムを利用でき、NVIDIAプロフェッショナル・サービスによりエキスパートからのアドバイスを受けることができます。

大規模なワークロードに対応できるように強化されています

NVIDIA DGX H100は、6倍高速なパフォーマンス、2倍高速なネットワーキング、およびハイスピードなスケーラビリティをNVIDIA DGX SuperPODに対して発揮します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーション・モデルといった大規模なワークロードに対応できるように強化されています。

思いのままに使えるインフラストラクチャ

DGX H100は、オンプレミスにインストールして直接管理したり、NVIDIA DGX対応のデータ センターでの設置、NVIDIA認定のマネージド・サービス・プロバイダーを通じてアクセスすることもできます。また、 DGX対応のライフサイクル管理により、組織は予測性の高い財務モデルを入手して、最先端のデプロイメントを維持できます。

NVIDIA DGX H100 スペック表

仕様 DGX H100
GPU NVIDIA H100 Tensor Core GPU 80GB x8
GPUメモリ 総計640GB
演算性能 32ペタFLOPS FP8
CPU Dual x86
システムメモリ 2TB
ネットワーク 4個のOSFPポートで8基のシングルポートConnectX-7へ接続
400Gb/s InfiniBand/Ethernet
2基のデュアルポート NVIDIA BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernet x1
200Gb/s InfiniBand/Ethernet x1
10Gb/s オンボード NIC(RJ45 付き)
50Gb/s Ethernet オプション NIC ホスト ベースボード管理コントローラー(BMC)(RJ45 付き)
2x NVIDIA BlueField-3 DPU BMC(それぞれ RJ45 コネクタで接続)
ストレージ OS 1.9TB M.2 NVME x2
内部ストレージ 30TB(3.84 TB ×8)U.2 NVMe
ソフトウェア DGX H100システムには、Ubuntu Linuxに基づいてDGXソフトウェアスタック(DGX用に最適化されたすべての必要なパッケージとドライバー)を含むDGX OSがプリインストールされています。オプションで、お客様はUbuntu LinuxまたはRedHat EnterpriseLinuxと必要なDGXソフトウェアスタックを個別にインストールできます。
最大消費電力 最大10.2kW
運用温度範囲 5℃ - 30℃

第3世代統合AIシステム
NVIDIA DGX A100

すべてのAIワークロードに対応する統合システム「NVIDIA DGX A100」は、世界初の5ペタFLOPSを実現するAIシステムとして、これまでにない計算密度、パフォーマンス、柔軟性を提供します。

世界初のシングルノードによる5ペタFLOPSの性能を実現します

NVIDIA DGX A100は最新GPUのNVIDIA A100 Tensor コア GPUを8基搭載しています。GPU間を600GB/sの次世代NVSwichで結合し、分析からトレーニング、推論まですべてのAIワークロードに対応する統合システムとして、世界初のシングルノードによる5ペタFLOPSを実現しました。

NVIDIA DGX A100は最高のAIパフォーマンスを実現します

NVIDIA DGX A100を、同一ベンチマークでCPUサーバーと比較すると、トレーニングで6倍、推論で172倍、データ分析で13倍の高速化を実現します。
※NVIDIA DGX A100 40GBx8との比較です。

NVIDIA DGX A100 スペック表

仕様 DGX A100 80GB x8 DGX A100 40GB x8
GPU A100 80GB GPU x8 A100 40GB GPU x8
GPUメモリ 総計640GB 総計320GB
演算性能 5ペタFLOPS AI
10ペタFLOPS INT8
CPU Dual AMD Rome 7742/総計128 cores/2.25 GHz(ベース)/3.4 GHz(最大ブースト)
システムメモリ 2TB 1TB
ネットワーク シングルポート Mellanox ConnectX-6 VPI x8
200Gb/s HDR InfiniBand
デュアルポート Mellanox ConnectX-6 VPI x2
10/25/50/100/200Gb/s Ethernet
シングルポート Mellanox ConnectX-6 VPI x8
200Gb/s HDR InfiniBand
デュアルポート Mellanox ConnectX-6 VPI x1
10/25/50/100/200Gb/s Ethernet
ストレージ OS 1.92TB M.2 NVME x2
Data 3.84TB U.2 NVME x8
OS 1.92TB M.2 NVME x2
Data 3.84TB U.2 NVME x4
ソフトウェア Ubuntu Linux OS
最大消費電力 6500W
重量 123kg
サイズ 897.1 D x 482.3 W x 264 H (mm)

多くのディープラーニングフレームを利用できる
NVIDIA DGX共通のソフトウェアスタック

DGXシリーズ共通のソフトウェアスタックは、多くのディープラーニングフレームを利用することができます。最高のパフォーマンスを発揮するように最適化されており、常に最新の状態を維持できるようにアップデートされます。

ディープラーニングの統合環境であるNVIDIA DIGITSやサードパーティのGPU対応アプリケーション、NVIDIA Deep Learning SDK(cuDNN、cuBLAS)、CUDAツールキット、マルチGPUの高速な集合通信を実現するNCCL、そしてNVIDIA GPUドライバを含んでいます。

NVIDIA Dockerによるコンテナ技術をベースに構築された統合ディープラーニングソフトウェアスタックは、ワークフローを簡素化し、データセンターやクラウド環境にモデルを展開する際の再コンパイル時間を節約できます。DGX Stationで実行されているワークロードは、そのままDGXA100やクラウド環境へカンタンに移行できます。

製品やソリューションについて、
お気軽にお問い合わせください。