Vitis AI 2.0 がリリース!

Vitis AI 2.0 が利用可能になりました。ザイリンクスの FPGA や適応型 SoC を使用するソフトウェア ベースの AI アクセラレーション ソリューションとして構築された Vitis AI 開発環境は、AI 製品に新たな価値と市場競争力をもたらします。 今回のリリースは、使いやすさが向上し、エッジやデータセンターのさらなる性能向上を可能にします。この記事では、モデル、ソフトウェア ツール、DPU (Deep Learning Processor Unit) など、新バージョンの特徴および最新の性能について説明します。

Vitis AI 2.0 リリースの主な機能:

  • CPU OP で多様なモデルに対応し、使いやすさが向上
  • CNN (たたみ込みニューラル ネットワーク) や NLP (自然言語処理) 分野のセンサー フュージョン、ビデオ解析、超解像、感情推定アプリケーション向けの最先端 AI モデルが追加 (AI Model Zoo)
  • DPU のスケーラビリティとエッジやクラウド カードの IP 機能が強化

新機能の詳細は、リリース ノートをご覧ください。

使いやすさが向上

カスタム OP プラグイン

Vitis AI の使用に慣れてくると、ツールや IP でサポートされていないネットワーク レイヤーに遭遇することがあり、運用に問題が生じます。Vitis AI ツールや DPU IP でサポートされていないネットワーク レイヤーは、CPU プロセッサに一つずつ分けられるため、ユーザーが DPU と CPU 間のデータ交換を手動で行わなければなりません。この作業が、ユーザー エクスペリエンスを低下させていました。

2.0-blog-1

Vitis AI 2.0 では、カスタム OP フローに対応しているため、DPU 未対応の OP を含むモデルでも、量子化フローでそれらの OP を定義し、レジスタ/実装後にグラフ ランナーを使用して簡単に運用できます。このようにして、プロセス中にエラーを生じさせることなく、フル モデルを簡単に運用できるようになりました。

2.0-blog-2

WeGO Tensorflow 推論フロー

今回のリリースで、使いやすさが向上したもう一つの機能は、WeGO (Whole Graph Optimizer) フローです。Vitis AI 開発キットに Tensorflow フレームワークを統合することで Tensorflow から直接推論を実行できるようになりました。Vitis AI 2.0 では、Tensorflow 1.x フレームワークを使用し、クラウド DPU で推論する場合に WeGO フローを利用できます。

WeGO は、AI クオンタイザーで量子化されたモデルを複数のサブグラフに自動で分割し、クラウド DPU サブグラフに対して最適化と高速化を適用します。グラフの DPU 未対応部分は CPU で実行するために Tensorflow にディスパッチされます。これらのプロセスはすべて透過的に処理されるため、使いやすさが一段とアップします。すべてのレイヤーをインフレームワークでネイティブ サポートし、クラウド DPU でのエンドツーエンドの性能向上を実現できます。

新しいモデル

AI Model Zoo は、Vitis AI スタックの中で最も人気があるコンポーネントの一つであり、多様なビジョン ベース アプリケーションに適応できる、再トレーニング可能なオープンソースの最適化モデルを提供しています。Vitis AI 2.0 リリースでは、Pytorch、Tensorflow、Tensorflow 2、Caffe の無償モデルの数が 130 に増えました。

新たに追加されたモデルには、トラフィック検出、画像処理と LiDAR のセンサー フュージョン、医療用画像処理、2D/3D の深度推定、再識別などに幅広く使用される SOLO、Yolo-X、UltraFast、CLOCs、SESR、DRUNet、SSR、FADNet、PSMNet、FairMOT モデル、また感情認識、顧客満足、OpenIE (Open Information Extraction) などに使用される NLP モデルがあります。これらのトレーニング済みモデルに加え、今回のリリースではハードウェア上でより優れた精度と性能を実現できる OFA を採用したモデルも提供しています。

2.0-blog-3

AI モデルの詳細、および Vitis AI で正式にサポートされているハードウェアで運用する場合の性能については、Github の AI Model Zoo をご覧ください。

DPU のスケーラビリティと新しいハードウェア プラットフォーム

Vitis AI 2.0 では、VCK190 と VCK5000 のプロダクション ボードと新たに Alveo U55C のサポートが追加されています。つまり Vitis AI は、エンベデッド システムからデータセンターに至るまで Zynq UltraScale+ MPSoC、Versal ACAP、Alveo カードなどの主要デバイスとアクセラレータ カードに完全対応しています。

2.0-blog-4

エッジ プラットフォームとクラウド プラットフォームの両方の DPU IP がアップグレードされ、Conv3D、Depthwise Conv、h-sigmoid、h-swish など、多くの機能を実現できるようになりました。Versal エッジ DPU は、C32 モードと C64 モード (バッチ サイズを 1 ~ 5 から選択) をサポートできるため、カスタム アプリケーションでより柔軟な DPU の統合が可能になります。

2.0-blog-5
IP の詳細は、PG338 または PG389 を参照してください。

その他

上記の新機能に加えて、Vitis AI ツールチェーンの機能と性能も向上しています。AI クオンタイザーとコンパイラは、カスタム OP をサポートし、また Pytorch (v1.8-1.9) と Tensorflow (v2.4-2.6) の上位バージョンに対応するためにすべてアップグレードされています。AI オプティマイザーは新たにプルーニング アルゴリズム OFA を採用し、AI ライブラリ、VART、AI プロファイラーおよび WAA は新しいモデルと CPU OP の実装をサポートするために改善されています。

ザイリンクス サイトにログインして今すぐ設計を開始できます。最新の Docker イメージをダウンロードして、Vitis AI 2.0 の価値を確かめてください。