最高の演算効率 & 最適なパフォーマンス
データセンターは大きな変革期を迎えています。インテリジェント機能を搭載したコネクテッド デバイスが家庭、自動車、オフィス、工場、都市、クラウドなどあらゆるところに導入され始め、AI 搭載アプリケーションの普及には、これらのデバイスを駆動するチップに高いデータ処理能力と電力効率が求められています。問題は、単に AI モデルをデプロイする方法ではなく、AI アプリケーションを最も効率的にデプロイする方法です。AI アプリケーションの実装は最速で実現する必要はなく、最も効率良く、柔軟性に優れたアプリケーションを実現することが重要です。アダプティブ コンピューティング プラットフォーム上に構築された AMD の XDNA アーキテクチャは、クラウド、エッジ、エンドポイントのいずれの環境においても AI 推論ワークロードに最適なソリューションを提供します。
Vitis™ AI は、AMD のアダプティブ SoC および Alveo™ データセンター アクセラレーター向けの包括的な AI 推論開発プラットフォームを提供し、標準フレームワークをサポートしているため、TensorFlow/PyTorch の学習済みモデルを直接コンパイルできます。このプラットフォーム上で、ソフトウェア開発者は通常利用しているツールにプラグインするだけで、最適化された豊富なオープンソース ライブラリを利用でき、ソフトウェア コードで機械学習を高速化できます。
AMD のデータセンター AI ソリューションおよびハードウェアに関するご質問については、 こちらのフォームにご記入のうえ送信してください。製品担当者より追ってご連絡を差し上げます。