Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

第2世代インテルXeonスケーラブル プロセッサーを搭載した、ディープ ラーニング ワークロードの高速化

Summary: 人工知能, ビッグ データ, High Performance Computing, サーバー, ディープ ラーニング, ディープ ラーニング ブースト, 推論, カスケード レイク, C6420

This article applies to   This article does not apply to 

Symptoms

この文書は、2019年5月にDell EMC HPCおよびAIイノベーション ラボのLucas WilisonとFrank Hanによって執筆されました。

Resolution

 HPCは絶えず進化しているため、ワークロードも同じく進化しています。データセットがますます大規模かつ複雑になるにつれて、ディープ ラーニングなどのAIワークロードが注目を集めています。10年前には想像できなかった課題を解決する、非常にパワフルで拡張性に優れた低レイテンシーのHPCシステムで、ますます多くのディープ ラーニング ワークロードが実行されるようになりました。ライフサイエンス、デジタル製造、石油とガス、金融などの分野における従来のHPCワークロードでは、ディープ ラーニングによって、データからより有意義な洞察をより短時間でより正確に生成できるようになっています。インテルは、AIメソッドが現在ではHPCワークロードの重要なコンポーネントになっていることを認識しています。AIモデルのトレーニングと、さらに重要なことにはより迅速な意思決定の簡素化という2つのニーズに対応するために、インテルはこれらのワークロードを新しい第2nd 世代インテル®Xeon®スケーラブル プロセッサー製品ラインの中心に据えました。

2nd 世代インテル®Xeon®スケーラブル プロセッサー上にある)

2nd 第2世代インテル®Xeon®スケーラブル プロセッサーは、インテル®Optane™ DC永続メモリーの導入機能、DRAM速度の向上、従来の命令セット(単精度FP32など)の処理能力の向上など、新機能および改善された機能を多数提供します。また、新しいインテル® ディープ ラーニング ブースト インストラクション セットを使用した、ディープ ラーニング ワークロードの新しい処理機能を実現します。

ディープ ラーニング ブースト(第2nd 世代インテル®Xeon®スケーラブル プロセッサー上にある)

ディープ ラーニングは、密なグラフに接続された多数の独立したプロセッシング ユニット(ニューロン)から成る人工のニューラル ネットワークを使用して、モデルを開発するプロセスです。ニューラル ネットワークは、あらゆる種類のデータにおいて未知または不測のパターンを特定する驚異的な能力を示しており、画像やビデオの認識・分析から、オーディオおよび言語の変換、時系列データおよび異常検出の分析まで、幅広い分野に適用されています。

最先端のモデルを開発するためにニューラル ネットワークを使用するプロセスは、次の2つのフェーズに分かれています。トレーニングでは、既存のデータを使用してニューラル ネットワークにパターンを識別する方法を教えます。推論では、トレーニングを受けたモデルが新しいデータに公開され、適切な意思決定を行うことが期待されます。ニューラル ネットワークのトレーニング プロセスはまた、数年前からハードウェアおよびソフトウェアの革新の中心となってきましたが、企業がAIの取り組みによって利益を得ているということが推測されています。

推論には、トレーニングとは異なるハードウェア要件があります。トレーニングには、半精度または単精度の浮動小数点演算が必要であり、同様のデータの大規模なベクトルを多数、同時に処理する能力が必要です。推論では、コンピューティング要件の合計がはるかに低く、レイテンシー(意思決定するまでの時間)に重点を置いています。また、8ビットおよび16ビットの整数などの低精度の数値形式を利用することもできます。

第2nd 世代インテル® Xeon®スケーラブル プロセッサー製品ラインは、主にこの第 2(推論)フェーズに焦点を当てています。これは、ディープ ラーニング ブーストというまったく新しい機能を備えています。インテル®ディープ ラーニング ブーストにより、精度演算(8ビットおよび16ビット整数)が、Xeonの512ビット幅ベクトル ユニット(AVX512)に減少しました。これは、ディープ ラーニング ブースト対応のインテル®Xeon®プロセッサーが、1つのハードウェア命令で64ビット整数8バイト(または32ビット整数16バイト)を同時に処理できるため、精度の推論を大幅に削減する機能です。この機能のほかにも、幅広い低精度ベクトルに対して、Fused Multiply Add(FMA)などの結合された操作を実行する機能を備えているため、システムのスループットが大幅に向上します。

Dell EMCは、インテル® ディープ ラーニング ブーストがニューラル ネットワークの推論を実現できるように、実現可能なパフォーマンス向上をベンチマーク化しています。上の図は、第2nd 世代インテル®Xeon®スケーラブル プロセス(インテル® ディープ ラーニング ブーストを搭載)を導入することで、組織がどの程度改善を実現できるかを示しています。第1st 世代のインテル®Xeon®スケーラブル プロセッサー(コードネーム「Skylake」)は、ResNet-50推論ベンチマークで1秒あたり258のイメージを単精度(FP32)で処理することができ、8ビット整数の精度に減らすと1秒あたり389のイメージを処理できます。一方、ディープ ラーニング ブーストが第2nd 世代インテル®Xeon®スケーラブル プロセッサーにもたらす新しい手順では、8ビット整数の精度で3倍以上のスループットを実現し、1秒あたり1278のイメージを処理できます。

このことが重要な理由

これは、お客様のビジネスにとって何を意味しますか?AIモデルが作成する各推論は、以前にはなかった洞察、すなわち自動化されたワークロードであり、意思決定の障壁を排除します。これらの各洞察、および削除されたそれぞれの障壁は、新規販売、追加のアップセル、またはより迅速な投資決定に変換することができます。これは完全に御社が自由にできるお金です。

企業がデジタル変革を行う中で、AIとディープ ラーニングを具体的に活用することは、データ主導型の世界で競争力を維持するために不可欠です。また、AIモデルのトレーニングはこの初期段階で注目されていますが、推論は、AIのメリットを企業が真に実現するための方法です。第2nd 世代インテル®Xeon®スケーラブル プロセッサーとインテル® ディープ ラーニング ブーストを搭載したDell EMC PowerEdgeサーバーは、より高いパフォーマンス モデル推論を実現することで、お客様のビジネスがAIの可能性を最大限に引き出すことを可能にします。そして、より優れたパフォーマンスを実現し、ビジネスの向上につなげます。

 

Affected Products

High Performance Computing Solution Resources, PowerEdge C6420