Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

Mit den skalierbaren Prozessoren der zweiten Generation von Intel Xeon Deep-Learning-Rechenlasten beschleunigen

Summary: Künstliche Intelligenz, Big Data, Hochleistungsdatenverarbeitung, Server, Deep Learning, Deep Learning Boost, Inferenz, Cascade Lake, C6420

This article applies to   This article does not apply to 

Symptoms

Der Artikel wurde im Mai 2019 von Lucas Wilison und Frank Han vom Dell EMC HPC & AI Innovation Lab verfasst.

Resolution

 HPC entwickelt sich kontinuierlich weiter und daher auch die Rechenlasten. Da Datensätze immer größer und komplexer werden, nehmen KI-Rechenlasten wie Deep Learning eine wichtige Rolle ein. Immer mehr Deep-Learning-Rechenlasten werden jetzt zusätzlich zu leistungsstarken, skalierbaren HPC-Systemen mit niedriger Latenz ausgeführt, die Herausforderungen bewältigen, die vor zehn Jahren unvorstellbar waren. Herkömmliche HPC-Rechenlasten in den Bereichen Biowissenschaften, digitale Fertigung, Öl und Gas, Finanzen usw. werden durch Deep Learning gefördert, um aussagekräftigere Erkenntnisse aus Daten in weniger Zeit und mit höherer Genauigkeit zu generieren. Intel erkennt Ki-Methoden als wichtige Komponenten von HPC-Rechenlasten. Um die Notwendigkeit des Trainings und, was noch wichtiger ist, der schnelleren Entscheidungsfindung für KI-Modelle zu unterstützen, hat Intel diese Rechenlasten mit der neuen 2Generation der skalierbaren Prozessorreihe von Intel® Xeon® in den Mittelpunkt gestellt.

2Generation der skalierbaren Prozessoren von Intel® Xeon®

2. Generation der skalierbaren Prozessoren von Intel® Xeon® bietet eine Vielzahl neuer und verbesserter Funktionen, einschließlich der Möglichkeit zur Bereitstellung von nichtflüchtigem Arbeitsspeicher mit Intel® Optane™ DC, verbesserten DRAM-Geschwindigkeiten und höherer Verarbeitungskapazität für herkömmliche Befehlssätze, wie z. B. FP32 mit einfacher Genauigkeit, und neue Verarbeitungsfunktionen für Deep-Learning-Rechenlasten mit dem neuen Befehlssatz Intel® Deep Learning Boost.

Deep Learning Boost auf der 2Generation der skalierbaren Prozessoren von Intel® Xeon®

Deep Learning ist der Prozess der Entwicklung von Modellen mit künstlichen neuronalen Netzwerken, die aus zahlreichen unabhängigen Verarbeitungseinheiten (Neuronen) bestehen, die in einem dichten Graphen verbunden sind. Neuronale Netzwerke haben eine erstaunliche Fähigkeit bewiesen, unbekannte oder unvorhergesehene Muster in allen Arten von Daten zu identifizieren und wurden in vielen Gebieten angewendet, von der Bild- und Videoerkennung und -Analyse über die Audio- und Sprachumwandlung bis hin zur Datenanalyse und Anomalienerkennung über längere Zeiträume hinweg.

Der Prozess der Verwendung von neuronalen Netzwerken zur Entwicklung modernster Modelle gliedert sich in zwei Phasen: Training, in denen vorhandene Daten verwendet werden, um dem neuronalen Netzwerk zu vermitteln, wie Muster zu erkennen sind, und Inferenz, wo das trainierte Modell neuen Daten ausgesetzt und von ihm erwartet wird, dass entsprechende Entscheidungen getroffen werden. Obwohl der Prozess des Trainings neuronaler Netzwerke seit mehreren Jahren im Mittelpunkt von Hardware- und Software-Innovationen steht, ist es die Inferenz, durch die Unternehmen von ihren KI-Projekten profitieren.

Inferenz hat andere Hardwareanforderungen als Training. Das Training erfordert Gleitkommaarithmetik mit halber Genauigkeit oder einfacher Genauigkeit und die Möglichkeit, viele große Vektoren ähnlicher Daten gleichzeitig zu verarbeiten. Inferenz hat viel niedrigere Gesamtanforderungen an die Datenverarbeitung, konzentriert sich stärker auf Latenz (Zeit bis zur Entscheidung) und kann die Vorteile von numerischen Formaten mit niedrigerer Genauigkeit wie 8-Bit- und 16-Bit-Integern nutzen.

Die 2Generation der skalierbaren Prozessorreihe von Intel® Xeon® konzentriert sich hauptsächlich auf diese zweite Phase (Inferenz) mit einer völlig neuen Funktion, die als Deep Learning Boost bezeichnet wird. Intel® Deep Learning Boost fügt Arithmetik mit reduzierter Genauigkeit (8-Bit- und 16-Bit-Integer) den 512-Bit-Wide-Vector-Einheiten (AVX512) von Xeon hinzu. Dies bietet eine hohe Kapazität für Inferenz mit reduzierter Genauigkeit, da Deep Learning-fähige Intel® Xeon® Prozessoren gleichzeitig 64 8-Bit-Integer (oder 32 16-Bit-Integer) in einer einzigen Hardwareanweisung verarbeiten können. Kombinieren Sie dies mit der Fähigkeit zur Durchführung von Fused Operations, wie z. B. Fused Multiply Add (FMA), auf diesen breiten Vektoren mit niedriger Genauigkeit und der Durchsatz des Systems steigt deutlich an.

Dell EMC hat die realisierbaren Leistungsverbesserungen bewertet, die Intel® Deep Learning Boost für die Inferenz in neuronalen Netzwerken bieten kann. Die obige Abbildung zeigt, welche Verbesserungen Ihr Unternehmen durch die Bereitstellung der 2Generation der skalierbaren Prozessoren von Intel® Xeon® mit Intel® Deep Learning Boost erzielen kann. Während die 1Generation der skalierbaren Prozessoren von Intel® Xeon® (Codename "Skylake") bei dem Inferenz-Benchmarktest ResNet-50 258 Bilder pro Sekunde mit einfacher Genauigkeit (FP32) und 389 Bild pro Sekunde bei reduzierter Genauigkeit mit 8-Bit-Integer verarbeiten kann, können die neuen Befehlssätze, die Deep Learning Boost auf der 2. Generation der skalierbaren Prozessoren von Intel® Xeon® bereitstellt, den Datendurchsatz bei einer Genauigkeit mit 8-Bit-Integern auf 1278 Bilder pro Sekunde mehr als verdreifachen.

Warum das wichtig ist

Was bedeutet das für Ihr Unternehmen? Jede Inferenz, die Ihr KI-Modell erzeugt, bietet Einblicke, die Sie bisher nicht hatten, oder eine Rechenlast, die Sie automatisiert haben, wodurch ein Entscheidungshindernis beseitigt wird. Jeder dieser Einblicke und jedes dieser Hindernisse kann zu einem neuen Vertragsabschluss, einem zusätzlichen Upselling oder einer schnelleren Investitionsentscheidung werden. Das ist für Ihr Unternehmen bares Geld wert.

Wenn Unternehmen eine digitale Transformation durchlaufen, ist die Nutzung von KI und insbesondere Deep Learning entscheidend dafür, in einer datengesteuerten Welt wettbewerbsfähig zu bleiben. Und während das Training von Ki-Modellen in dieser frühen Phase im Mittelpunkt steht, ist die Inferenz das, was für ein Unternehmen die Vorteile von KI wirklich nutzbar macht. Dell EMC PowerEdge Server mit der 2Generation der skalierbaren Prozessoren von Intel® Xeon® mit Intel® Deep Learning Boost können Ihr Unternehmen dabei unterstützen, das volle Potenzial von KI durch eine leistungsfähigere Modellinferenz zu realisieren. Eine höhere Leistung führt zu besseren Geschäftsergebnissen.

 

Affected Products

High Performance Computing Solution Resources, PowerEdge C6420