1. トップ
  2. トピックス
  3. NVIDIAのデータセンター向け推論プラットフォームがAI活用サービスの新たな波を推進(NVIDIA)

NVIDIAのデータセンター向け推論プラットフォームがAI活用サービスの新たな波を推進(NVIDIA)

2018年09月13日(木)NVIDIA

Tesla T4 GPUと新しいTensorRTソフトウェアにより、インテリジェントな音声、動画、画像およびレコメンデーションのサービスを実現

2018年9月13日 - GTC Japan - 全世界でAIを活用したサービスの成長を加速させているNVIDI は、業界最先端の推論アクセラレータによって、音声、動画、画像およびレコメンダーのサービスを実現する、AIデータセンター・プラットフォームを発表しました。

このNVIDIATensorRT Hyperscale推論プラットフォームには、自社の画期的なNVIDIA TuringアーキテクチャをベースにしたNVIDIA Tesla T4 GPUと新たな推論ソフトウェアの包括的なセットが含まれています。

エンドツーエンド アプリケーション向けに、より低いレイテンシで最高速の性能を発揮する、このプラットフォームにより、ハイパースケールなデータセンターにおいて、新しいサービスを提供することが可能になり、たとえば、検索クエリへの対応では、可能性のある結果のリストを示すのではなく、自然言語でのインタラクションや直接的な回答を行えるようになります。

NVIDIAのバイス プレジデント 兼 アクセラレーテッド ビジネス担当 ゼネラル マネージャーであるイアン バック (Ian Buck) は次のように述べています。「NVIDIAのお客様は、あらゆる製品とサービスがAIを搭載し、AIによって改良される未来を心待ちにしていらっしゃいます。これまで想像されていた以上の速さと効率性を実現させるために、NVIDIA TensorRTハイパースケール プラットフォームが構築されました」

巨大な規模のデータセンターでは、毎日、数十億の音声クエリや翻訳、画像、動画、レコメンデーションおよびソーシャル メディアのインタラクションが処理されています。これらの用途では、処理を行うサーバーと組み合わされた、異なったタイプのニューラル ネットワークが個別に必要となります。

データセンターを最適化して、スループットとサーバーの利用度を最大化させるために、NVIDIA TensorRTハイパースケール プラットフォームには、リアルタイム推論ソフトウェアと Tesla T4 GPUが搭載されており、これによって、CPU単体の場合に比べて、クエリの処理速度が最大で40倍早くなります。

NVIDIAでは、AI推論業界は今後5年間で 200億ドルのマーケット規模に成長すると推測しています。

製品やソリューションについて、
お気軽にお問い合わせください。

ページトップへ