最高の演算効率 & 最適性能
エッジからデータセンターまで、世界最高水準の AI アクセラレーションを提供。最高 AI 推論性能、最速エクスペリエンス、最小コストを実現。
クラウド型エンドポイントでの画像処理、音声認識、レコメンダー システムの高速化、また自然言語処理 (NLP) の高速化を最高スループットかつ低レイテンシで実現。
優れた AI 推論機能により、自動運転車、ADAS、ヘルスケア、スマート シティ、リテール、ロボティクスなど、エッジで運用される自律型マシンの深層学習処理を高速化。
高スループット AI 推論
2 倍の TCO 削減 (主流の GPU と比較)
2 倍のビデオ ストリーム数 (主流の GPU と比較)
一般的な AI モデルやフレームワークを利用可能で、ハードウェア プログラミングは不要
Graph Sources: https://developer.Nvidia.com/deep-learning-performance-training-inference
AMD の 7nm Versal アダプティブ SoC で構築された AI 推論開発向けの VCK5000 開発カードを購入
Mipsology 社の高性能 AI 推論と、Aupera 社の AI 認識のための完全なビデオ処理と ML 推論パイプライン
Vitis™ AI 開発環境をダウンロードして、AMD の AI ソリューションで開発を始める
業界最先端のエッジ AI アクセラレーションの性能
大きいバッチサイズを使用してスループットを達成します。処理前にすべての入力の準備ができるまで待たなければならず、必然的にレイテンシが大きくなります。
小さいバッチ サイズを使用してスループットを達成します。各入力の準備ができ次第、処理を開始できるため、結果として低レイテンシを実現できます。
カスタム アクセラレータをシリコン デバイスの動的アーキテクチャと密結合することで、AI 推論とその他の性能重視機能の両方に対して最適化されたハードウェア アクセラレーションが可能になります。
これにより、固定アーキテクチャの AI アクセラレータを大きく上回るアプリケーション全体の性能向上が可能になります。固定アーキテクチャ デバイスの場合、カスタム ハードウェア アクセラレーションに対応できないため、アプリケーションのほかの性能重視機能はソフトウェアで実行する必要があります。
複雑なハードウェア設計の知識が不要で、高度なアプリケーション開発をサポート
Vitis AI を使用して、効率的なエッジ AI コンピューティング開発が可能
Kria システム オン モジュール向けのビルド済みアプリケーション。まずはアクセラレーション アプリケーションを評価し、購入、そして運用へ!
まずはアクセラレーション アプリケーションを評価し、購入、そして運用へ!
記事、プロジェクト、チュートリアルなどの詳細
AI アクセラレーションの最新情報を入手