NVIDIA DGX

  1. AI/ディープラーニング

AI・ディープラーニングに不可欠なシステムNVIDIA DGXは、GPU最適化ソフトウェアと簡素化された管理が組み合わさった統合ソリューションによって、AI研究を加速させます。
アルゴグラフィックスは、NVIDIA Compute DGX Elite パートナーに認定されています。

第3世代統合AIシステム
NVIDIA DGX A100

すべてのAIワークロードに対応する統合システム「NVIDIA DGX A100」は、世界初の5ペタFLOPSを実現するAIシステムとして、これまでにない計算密度、パフォーマンス、柔軟性を提供します。

世界初のシングルノードによる5ペタFLOPSの性能を実現します

NVIDIA DGX A100は最新GPUのNVIDIA A100 Tensor コア GPUを8基搭載しています。GPU間を600GB/sの次世代NVSwichで結合し、分析からトレーニング、推論まですべてのAIワークロードに対応する統合システムとして、世界初のシングルノードによる5ペタFLOPSを実現しました。

NVIDIA DGX A100は最高のAIパフォーマンスを実現します

NVIDIA DGX A100を、同一ベンチマークでCPUサーバーと比較すると、トレーニングで6倍、推論で172倍、データ分析で13倍の高速化を実現します。
※NVIDIA DGX A100 40GBx8との比較です。

NVIDIA DGX A100 スペック表

仕様 DGX A100 80GB x8 DGX A100 40GB x8
GPU A100 80GB GPU x8 A100 40GB GPU x8
GPUメモリ 総計640GB 総計320GB
演算性能 5ペタFLOPS AI
10ペタFLOPS INT8
CPU Dual AMD Rome 7742/総計128 cores/2.25 GHz(ベース)/3.4 GHz(最大ブースト)
システムメモリ 2TB 1TB
ネットワーク シングルポート Mellanox ConnectX-6 VPI x8
200Gb/s HDR InfiniBand
デュアルポート Mellanox ConnectX-6 VPI x2
10/25/50/100/200Gb/s Ethernet
シングルポート Mellanox ConnectX-6 VPI x8
200Gb/s HDR InfiniBand
デュアルポート Mellanox ConnectX-6 VPI x1
10/25/50/100/200Gb/s Ethernet
ストレージ OS 1.92TB M.2 NVME x2
Data 3.84TB U.2 NVME x8
OS 1.92TB M.2 NVME x2
Data 3.84TB U.2 NVME x4
ソフトウェア Ubuntu Linux OS
最大消費電力 6500W
重量 123kg
サイズ 897.1 D x 482.3 W x 264 H (mm)

AI時代のワークグループアライアンス
NVIDIA DGX Station A100

NVIDIA DGX Station A100は、AIスーパーコンピューティングをデータサイエンスチームにもたらし、データセンターやITインフラストラクチャの増設なしにデータセンターテクノロジを提供します。複数ユーザーが同時に接続できるように設計されており、DGX Station A100はオフィスに適したフォームファクタでサーバーグレードコンポーネントを活用します。完全に相互接続されたマルチインスタンスGPU(MIG)対応の4基のNVIDIA A100 TensorコアGPUと全体で最大320GBのGPUメモリを備えた唯一のシステムであり、標準的な電源コンセントにプラグ接続できるため、どこにでも配置できる強力なAIアプライアンスです。

データサイエンスチーム向けのAIスーパーコンピューティング

DGX Station A100は、複数の同時接続ユーザーに集中型AIリソースを手軽に提供できるAI時代のワークグループアプライアンスです。トレーニング、推論、分析のワークロードをMIGで並列実行が可能です。最大28台の独立したGPUデバイスが個々のユーザーとジョブに割り当てられるので、システム全体の性能に影響を与えません。DGX Station A100は、すべてのDGXシステムと同じく完全に最適化されたNVIDIA DGXソフトウェアスタックを備えており、個々のシステムからNVIDIA DGX PODやNVIDIA DGX SuperPODに至るまで、最高の性能とDGXベースインフラストラクチャとの完全相互運用性を提供し、規模の大小を問わず、あらゆる組織のチームにとって理想的なプラットフォームとなります。

反復処理とイノベーションの高速化

高性能なトレーニングによって生産性が向上し、洞察を得るまでの時間と市場投入までの時間が短縮されます。

NVIDIA DGX STATION A100 スペック表

仕様 DGX STATION A100 80GB x4 DGX STATION A100 40GB x4
GPU A100 80GB x4 A100 40GB x4
GPUメモリ 総計320GB 総計160GB
演算性能 2.5ペタFLOPS AI
5ペタFLOPS INT8
CPU シングルAMD 7742 x1/64コア
2.25GHz(ベース)~3.4GHz(最大ブースト)
システムメモリ 512GB DDR4
ネットワーク デュアルポート10Gbase-T イーサネットLAN
シングルポート1Gbase-T イーサネットBMCマネジメントポート
ストレージ OS 1.92TB NVMEドライブ x1
内部ストレージ 7.68TB U.2 NVMEドライブ
ディスプレイアダブター 4GB GPUメモリ / Mini Display Port x4
ソフトウェア Ubuntu Linux OS
最大消費電力 1500W(100~120Vac時)
重量 43.1kg
サイズ 518 D x 256 W x 639 H (mm)

多くのディープラーニングフレームを利用できる
NVIDIA DGX共通のソフトウェアスタック

DGXシリーズ共通のソフトウェアスタックは、多くのディープラーニングフレームを利用することができます。最高のパフォーマンスを発揮するように最適化されており、常に最新の状態を維持できるようにアップデートされます。

ディープラーニングの統合環境であるNVIDIA DIGITSやサードパーティのGPU対応アプリケーション、NVIDIA Deep Learning SDK(cuDNN、cuBLAS)、CUDAツールキット、マルチGPUの高速な集合通信を実現するNCCL、そしてNVIDIA GPUドライバを含んでいます。

NVIDIA Dockerによるコンテナ技術をベースに構築された統合ディープラーニングソフトウェアスタックは、ワークフローを簡素化し、データセンターやクラウド環境にモデルを展開する際の再コンパイル時間を節約できます。DGX Stationで実行されているワークロードは、そのままDGXA100やクラウド環境へカンタンに移行できます。

製品やソリューションについて、
お気軽にお問い合わせください。