1. トップ
  2. トピックス
  3. ディープラーニング推論の能力をハイパースケール・データセンターに拡大(NVIDIA)

ディープラーニング推論の能力をハイパースケール・データセンターに拡大(NVIDIA)

2018年03月27日(火)NVIDIA

NVIDIA TensorRT 4、TensorFlowへの統合、Kaldi音声認識のアクセラレーション、ONNXサポートの拡大を発表
GPU推論が最大で CPUの190倍高速に

米国カリフォルニア州サンノゼ — GPU テクノロジ・カンファレンス— (2018年3月27日) — NVIDIA (NASDAQ:NVDA) は、潜在的な推論の市場を世界で3,000万台のハイパースケール・サーバーに拡大すると同時に、ディープラーニングを活用したサービスの提供コストを大幅に低減する、一連の新しいテクノロジとパートナーシップを発表しました。

NVIDIAの創業者兼 CEOであるジェンスン フアン (Jensen Huang) は、GTC 2018の基調講演において、ディープラーニング推論向けの GPUアクセラレーションがどれほど勢いを増しているかを説明しました。GPUアクセラレーションは、音声認識、自然言語処理、レコメンダー・システム、画像認識などの能力を新たにサポートし、データセンターや自動車用アプリケーション、ロボットやドローンなどの組み込みデバイスでも利用されています。

NVIDIAは、新しいバージョンの TensorRT推論ソフトウェアと、広く使われている GoogleのTensorFlowフレームワークへのTensorRTの統合を発表しました。また、最も広く使われている NVIDIAの音声認識フレームワークであるKaldiがGPU向けに最適化されたことも発表しました。Amazon、Facebook、MicrosoftなどのパートナーとNVIDIAの緊密なコラボレーションにより、ONNXおよび WinMLを利用した GPUアクセラレーションを開発者がより容易に利用できるようになります。

製品やソリューションについて、
お気軽にお問い合わせください。

ページトップへ