適応性 & リアルタイム
AI 推論の高速化

概要

エッジからクラウドまでに対応する AI 推論

Vitis™ AI 開発環境は、エッジ デバイスと Alveo カードの両方を含む、ザイリンクス ハードウェア プラットフォーム上での AI 推論開発向けのザイリンクス開発プラットフォームで、最適化された IP、ツール、ライブラリ、モデル、サンプル デザインが含まれます。Vitis AI は、高い効率性と使いやすさを考えて設計されており、ザイリンクス FPGA および ACAP での AI 推論の高速化や深層学習の性能を最大限に引き出すことができます。
 

Vitis AI の運用

Vitis AI を活用した開発

  • 主流フレームワークと多様な深層学習タスクに対応できる最新モデルをサポート
  • ザイリンクス デバイスですぐに運用できる最適化済みの包括的なモデル セットが提供されているため、要件に合ったモデルを見つけて、アプリケーションを再トレーニング可能!
  • モデルの量子化、キャリブレーション、微調整をサポートする高性能クオンタイザーを提供。アドバンス ユーザー向けには、モデルを最大 90% プルーニングできるオプションの AI オプティマイザーも提供
  • AI プロファイラーは、レイヤーごとに分析を実行してボトルネックを解消
  • AI ライブラリは、エッジとクラウド間の移植性を高めるため高レベルの C++ および Python API を提供
  • 高効率かつスケーラブルな IP コアをカスタマイズして、スループット、レイテンシ、消費電力などさまざまなアプリケーション要件に対応

Vitis AI がもたらす可能性

Vitis AI Model Zoo

https://github.com/Xilinx/Vitis-AI/tree/master/AI-Model-Zoo

 

AI オプティマイザー

世界最先端のモデル圧縮技術により、精度への影響を最小限に抑えながら、複雑なモデルを 1/5 から最大 1/50 まで圧縮できます。Deep Compression で次世代レベルの AI 推論性能が実現します。

AI オプティマイザーのブロック図

AI クオンタイザーのブロック図

AI クオンタイザー

AI クオンタイザーは、32 ビット浮動小数点の重みとアクティベーションを INT8 などの固定小数点に変換することで、予測精度を損なうことなく計算の複雑レベルを軽減できます。固定小数点のネットワーク モデルは、必要なメモリ帯域幅が狭いため、浮動小数点モデルよりも高速で電力効率に優れています。


AI コンパイラ

AI モデルを効率の高い命令セットとデータフローにマップします。また、レイヤーの融合、命令スケジューリング、オンチップ メモリの再利用などの高度な最適化を可能な限り実行します。

AI コンパイラのブロック図

AI プロファイラー

パフォーマンス プロファイラーでは、AI 推論実装における効率性と使用率を詳細分析できます。


AI ライブラリ

ランタイムは、アプリケーション開発を容易にする軽量な C++ および Python API を提供します。また、効率的なタスク スケジューリング、メモリ管理、割り込みハンドリング機能も提供します。

AI ライブラリのブロック図
資料

Vitis AI 資料

Filter Results
デフォルト デフォルト タイトル ドキュメント タイプ 日付