UPGRADE YOUR BROWSER

We have detected your current browser version is not the latest one. Xilinx.com uses the latest web technologies to bring you the best online experience possible. Please upgrade to a Xilinx.com supported browser:Chrome, Firefox, Internet Explorer 11, Safari. Thank you!

このページをブックマークに追加

リコンフィギャブル
アクセラレーション

クラウド スケールでプラットフォームの
開発およびデプロイ

クラウド センターは日々変化しています。  今日の CPU では、機械学習、データ解析、ビデオ処理などの、最先端の計算集中アプリケーションに対応できません。クラウド サービス プロバイダーは、ネットワーキングやストレージの日々増加するボトルネックの解消を考えるとともに、クラウド データ センターの全体的なスループットと効率性を向上させるためのアクセラレーターに注目しています。

Microsoft 社や Baidu 社のような大手クラウド サービス プロバイダーたちは、競争が激化する市場で自社のサービス事業を推進するために、ハイパースケール センターに FPGA 技術を導入することを発表しました。FPGA は、プログラム可能な上に、新しいアプリケーションやアルゴリズムに対してハードウェアで最適化が可能なため、アジャイル性の高いクラウド コンピューティング環境をサポートするのに最適なソリューションです。 

FPGA は、何度でも再設定および再プログラム可能という特性があるので、変化の激しい市場でその強みを発揮します。ダイナミック リコンフィギュレーションを使用することで、FPGA デザインを瞬時 (1 秒以内) に変更し、別のワークロードに対してハードウェアで最適化された異なるデザインをデプロイできます。  つまり、ザイリンクス FPGA は、 CPU やカスタム ASIC では対応できない日々変化し続けるハイパースケール アプリケーションの要件に瞬時に対応する柔軟性と応用能力を提供します。 

データ センターにおけるザイリンクスの勢い

顧客 - ハイパースケール クラウド企業の大手 7 社のうち 3 社がザイリンクス FPGA を導入しています。その中の Baidu 社は、機械学習アプリケーションを高速化するためにリソース プールにザイリンクスの UltraScale™ FPGA を導入したことを 10 月に発表しています。

パートナーシップ - Qualcomm 社IBM 社は、データ センターの高速化に向けて、ザイリンクスと戦略的な協力関係を築くことを発表しました。  IBM 社は、ストレージやネットワークのアクセラレーション フレームワークである CAPI SNAP で、すでに成果を収めており、ザイリンクス FPGA を使用して NoSQL などのアプリケーションを容易に高速化できるようになりました。

スタンダードのリーダーシップ - ザイリンクスは、CCIX と言われるインテリジェントなキャッシュ コヒーレント インターコネクトの開発に率先して取り組んできました。  2016 年 5 月、ザイリンクスと AMD 社、ARM 社、Huawei 社、IBM 社、Mellanox 社、および Qualcomm 社によって結成されたこの取り組みのメンバーは、5 ケ月間で 3 倍になりました。

データ センター向けのソフトウェア定義ツールと製品 - 2014 年、FPGA の高速化に最適な SDAccel™ 開発環境をリリースしました。  2016 年 11 月、ザイリンクスは、 高帯域幅メモリ (HBM) と CCIX 技術を備えた、新しい 16nm Virtex UltraScale+™FPGA の詳細を発表しました。

ザイリンクスの新しい Reconfigurable Acceleration Stack は、世界最大規模のクラウド サービス プロバイダーがクラウド スケールでアクセラレーション プラットフォームを開発してデプロイできるようにし、機械学習、データ解析、ビデオ トランスコーディングなどの複雑なクラウド コンピューティングを実現するために、かつてないレベルの柔軟性を提供します。「クラウドネイティブ」アプリケーション向けに提供された、この FPGA ベースのアクセラレーション スタックには、ライブラリ、統合環境、開発者ボード、リソース、および OpenStack サポートがあり、CPU の計算効率は最大 40 倍、そして今日市場にある FPGA の最大 6 倍の計算効率を提供します。

ザイリンクス R&D チームが提供するハイパースケール データ センターの FPGA アクセラレーションの最新情報をチェック。

ザイリンクス ホワイト ペーパー : 『ザイリンクス デバイスでの INT8 に最適化した深層学習の実装』 を読む。

Amazon クラウド での FPGA アクセラレーションについて学ぶ。

クラウドベースのテスト ドライブを使用して今すぐ開始する。

ザイリンクスからアクセラレーションに関する最新情報およびアップデート情報を受け取るためにサインアップする。

acceleration-libraries

スタックのライブラリ

DNN -- ザイリンクスの Deep Neural Network (DNN) ライブラリは、ディープ ラーニング推論アプリケーションを構築するために高度に最適化されたライブラリです。  6 ビットおよび 8 ビットの整数データ型で最大の計算効率を実現するように設計されています。

GEMM -- ザイリンクスの General Matrix Multiply (GEMM) ライブラリは、Level 3 BLAS (Basic Linear Algebra Subprograms) をベースに設計されており、16 ビットと 8 ビットの整数データ型で最適性能を実現し、あらゆるサイズのあらゆる行列に対応します。

HEVC Decoder & Encoder --  HEVC/H.265 は、MPEG や ITU の後続規格としてリリースされた最新のビデオ圧縮規格です。H.264 に代わる規格で、最大 50% の帯域幅削減を可能にします。ザイリンクスは、2 つのエンコーダーを提供しています。一つは、大半のビデオ データ センター ワークロードに対応する高品質でリアルタム性の高い柔軟なエンコーダー、もう一つは、カメラ以外で生成されたコンテンツに対応するエンコーダーです。デコーダーは、この 2 つのエンコーダーのすべてのアプリケーションをサポートします。

Data Mover (SQL) – SQL データ ムーバー ライブラリは、ザイリンクス FPGA を使用して、データ解析のワークロードを簡単に加速できるようにします。データ ムーバー ライブラリは、PCIe でデータベース テーブルから FPGA アクセラレーター カードのオンチップ メモリへデータ ブロックを送信することで、SQL データベースへの標準接続を組織化します。このライブラリは、ホスト CPU と FPGA デバイス上のアクセラレーター機能との間の PCIe 帯域幅を最大限に利用するように最適化されています。

Compute Kernel (SQL) – FPGA ハードウェア上にある多数の主要 SQL 機能 (小数型、データ型、スキャン、比較、フィルターなど) を加速させるライブラリです。計算機能は、FPGA のハードウェア並列化を最大限に活用するように最適化されます。

ボード タイプ
プロバイダ
Xilinx® Kintex® UltraScale™ FPGA アクセラレーション開発キット 開発者向け評価版 ザイリンクス
Bittware 社製 PCIe ボード
プロダクション
Bittware 社
Alpha Data ADM-PCIE-KU3 プロダクション Alpha Data 社
Alpha Data ADM-PCIE-7V3 プロダクション Alpha Data 社
COTS PEA-C8K0-060
プロダクション
COTS 社
COTS PEA-C8K0-040 プロダクション COTS 社
Semptian NSA-120 アクセラレーター カード プロダクション Semptian 社
ストレージ アクセラレーション カード (NVMeoF) プロダクション Fidus 社

Amazon

ザイリンクス UltraScale +™ FPGA が、Amazon Elastic Cloud Compute (Amazon EC2) F1 インスタンスで利用可能になりました。F1 インスタンスは、ゲノミクス、財務分析、ビデオ処理、ビッグ データ、セキュリティ、機械学習の推論など、重要なデータセンター ワークロードに対して、FPGA ベースのハードウェア アクセラレーションで高速化することを目的としています。

F1 インスタンスは、容易にプログラムできるだけでなく、ハードウェア アクセラレーション コードの開発、シミュレーション、デバッグ、およびコンパイルに必要なすべての環境 (FPGA Developer AMI、Hardware Developer Kit (HDK) など) を備えています。FPGA デザインが完成すると、Amazon FPGA Image (AFI) として登録でき、数回クリックするだけでユーザーの F1 インスタンスにデプロイできます。各 AFI は、必要に応じて複数の F1 インスタンスに何度でも再利用できます。何よりも、F1 インスタンスに搭載された FPGA は再プログラムできるため、ハードウェアを再設計することなくハードウェア アクセラレーションを更新し、最適化できる柔軟性が得られます。 

現在、Amazon EC2 F1 インスタンスは、Virtex® UltraScale+ VU9P FPGA を最大 8 個搭載した 170 TOP/秒 (INT8) を超えるピーク コンピューティング能力を達成できる 2 つの異なるサイズで提供されています。

AWS クラウドでのカスタム FPGA の実行

Amazon EC2 F1 インスタンスに加えて、AWS は、あらかじめ構築されたクラウドベースのリソースである FPGA Developer Amazon Machine Image (AMI) も提供しており、これにはスクリプトとザイリンクスの Vivado® Design Suite および SDAccel™ 開発環境が含まれています。FPGA Developer AMI へアクセスしてください。開発システムをオンプレミスで管理する場合は、Vivado Design Suite と SDAccel 開発環境を購入するか、Amazon クラウド内の F1 インスタンスを利用できるように アップグレードも可能です。今すぐ購入/アップグレード

アカデミック パートナー プログラムの一貫として F1 インスタンスに関心がある方は、ザイリンクス ユニバーシティ プログラム (XUP) クラウド ページをご覧ください。

主なビデオ

次のビデオでは、F1 インスタンスへのアクセスから、設定、実行までの手順を 10 分以内で簡単に説明しており、また SDAccel 開発環境で、ソフトウェア フレームワークを使用して迅速に RTL アクセラレーターを統合できることを説明しています。

F1 インスタンスで実行するアプリケーションおよびサービス

ビデオ トランスコーディング、データ分析、機械学習、開発者の生産性などのサービスおよびアプリケーションの高速化に F1 インスタンスを利用しているパートナー企業の資料をご覧ください。

その他のリソース


Nimbix 社

ザイリンクスは、C/ C++ や OpenCL から FPGA の計算密度を利用する次世代アプリケーションを構築するために、ビッグ データや機械学習用のヘテロジニアス アクセラレーター クラウドのリーディング プロバイダーの Nimbix 社とパートナー契約を結びました。

これにより、Nimbix 社の製品が高性能でエネルギー効率のよい FPGA を利用するハードルが非常に低くなり、すべての業界でハイエンドな計算ワークフローを加速することができます。  今では、先行投資で設備を購入することなく、クラウド内でザイリンクス ツールを実行し、ザイリンクス向けに最適化された最新のハードウェア上でテストおよびデプロイできます。

クラウド上でアプリケーションの高速化を行うには、http://www.nimbix.net/xilinx をご覧ください。

OpenCL™、C、および C++ に対応する SDAccel™ 開発環境では、FPGA を利用するデータ センター アプリケーションの高速化において、単位ワットあたりのパフォーマンスを最大 25 倍向上させることができます。SDx™ ファミリに含まれる SDAccel は、OpenCL、C、および C++ カーネルのあらゆる組み合わせをサポートする業界初のアーキテクチャ最適化コンパイラです。ライブラリおよび開発ボードと合わせて提供され、業界初となる完全に CPU/GPU と同様の開発環境とランタイムで FPGA の開発を実行できます。詳細は、SDAccel ゾーンをご覧ください。

sdaccel-cpu

資料

リソース

アクセラレーションに関するリソース 説明
「FPGA Startup Gathers Funding Force for Merged Hyperscale Inference」 この記事では、設立したばかりの DeePhi Tech 社の効率的でスケーラブルな機械学習の推論ソリューションを対象とする FPGA ベースのアーキテクチャについて説明します。
「ESE: Efficient Speech Recognition Engine with Sparse LSTM on FPGA」 FPGA2017 Best Paper 賞を受賞したこの資料では、高効率 FPGA を搭載した音声認識エンジンは、CPU と比較して 43 倍の性能と 40 倍の単位ワットあたり性能を達成できることを発表しています。また、GPU と比較した場合
「Power-Efficient Machine Learning on POWER Systems using FPGA Acceleration」 このセッションでは、画像認識などの機械学習のワークロードの POWER システムを強化するための FPGA アクセラレーション技術について説明しています。
「Energy-Efficient CNN Implementation on a Deeply Pipelined FPGA Cluster」 この資料では、パイプライン段数が多く、複数の FPGA を利用するアーキテクチャについて説明しています。このアーキテクチャは、性能とエネルギー効率を最適化するためにデザイン スペースを拡張します。
「From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration」 このプレゼンテーションでは、FPGA の利用および今後のニューラル ネットワーク アクセラレーションの動向について説明しています。
「Baidu Takes FPGA Approach to Accelerating SQL at Scale」 この記事では、FPGA を用いたビッグ データの課題への Baidu 社の取り組みについて説明しています。
「SDA: Software-Defined Accelerator for general-purpose big data analysis system」 このプレゼンテーションでは、汎用ビッグデータ解析システム向けの Baidu 社のソフトウェア定義のアクセラレーターについて説明しています。
「SDA: Software-Defined Accelerator for Large-Scale DNN Systems」 この記事では、大規模なディープ ニューラル ネットワーク (DNN) システム向けに Baidu 社が提供するソフトウェア定義のアクセラレーター製品ファミリ (SDA) の主な機能、システム設計とアーキテクチャ、処理能力、ターゲット市場などに関する、著者のプレゼンテーション資料 (スライド) を提供しています。
ユーザー フォーラム
OpenCL™、C、および C++ の SDAccel™ 開発環境に関する意見を交換し合うコミュニティ