Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products
  • Manage your Dell EMC sites, products, and product-level contacts using Company Administration.

Accélération des charges de travail de Deep Learning avec les processeurs évolutifs Intel Xeon de 2e génération

Summary: Intelligence artificielle, Big Data, Calcul hautes performances, Serveurs, Deep Learning, Deep Learning Boost, Inférence, Cascade lake, C6420

This article may have been automatically translated. If you have any feedback regarding its quality, please let us know using the form at the bottom of this page.

Article Content


Symptoms

Cet article a été rédigé par Lucas Wilison et Frank Han, du Dell EMC HPC & AI Innovation Lab, en mai 2019.

Resolution

 Le calcul haute performance est en constante évolution et, par conséquent, il en va de même pour les charges de travail. À mesure que les ensembles de données deviennent plus volumineux et complexes, les charges de travail d’IA, telles que le Deep Learning, deviennent prédominantes. Les charges de travail de Deep Learning sont désormais exécutées sur des systèmes HPC puissants, évolutifs et à faible latence, qui permettent de relever des défis inimaginables il y a dix ans. Les charges de travail HPC traditionnelles dans les secteurs des sciences de la vie, de la fabrication numérique, du pétrole et du gaz, de la finance, etc., sont alimentées par le Deep Learning, qui permet d’obtenir des informations plus pertinentes à partir des données, plus rapidement et avec plus de précision. Intel sait que les méthodes d’IA sont désormais des composantes stratégiques des charges de travail HPC. Pour répondre aux besoins d’entraînement des IA et, plus important encore, faciliter une prise de décisions plus rapide des modèles d’IA, Intel a fait de ces charges de travail une priorité, avec sa nouvelle gamme deprocesseurs évolutifs Intel® Xeon® de 2e génération.

2processeurs évolutifs Intel® Xeon® de 2e génération

2processeurs évolutifs Les processeurs évolutifs Intel® Xeon® de 2e génération offrent une multitude de nouvelles fonctionnalités et de fonctionnalités améliorées, notamment la possibilité de déployer la mémoire persistante Intel® Optane™ DC et de bénéficier de vitesses de DRAM améliorées et d’une plus grande capacité de traitement pour les jeux d’instructions classiques tels que les FP32 simple précision. Ils fournissent par ailleurs de nouvelles fonctionnalités de traitement pour les charges de travail de Deep Learning, avec le nouveau jeu d’instructions Intel® Deep Learning Boost.

Deep Learning Boost sur lesprocesseurs évolutifs Intel® Xeon® de 2e génération

Le Deep Learning est le processus de développement de modèles utilisant des réseaux neuronaux artificiels, composés de plusieurs unités de traitement indépendantes (neurones) connectées dans un graphique dense. Les réseaux neuronaux ont démontré une capacité étonnante à identifier des schémas inconnus ou imprévisibles dans toutes sortes de données et ont été appliqués à des domaines allant de la reconnaissance et l’analyse des images et de la vidéo à la transformation audio et linguistique, en passant par les données de séries chronologiques et l’analyse de la détection des anomalies.

Le processus d’utilisation des réseaux neuronaux pour le développement de modèles de pointe se divise en deux phases : la phase d’entraînement de l’IA, durant laquelle les données existantes sont utilisées pour enseigner au réseau neuronal comment identifier les schémas ; et la phase d’inférence, durant laquelle le modèle formé est exposé aux nouvelles données et doit prendre des décisions appropriées. Le processus d’entraînement des réseaux neuronaux est au cœur de l’innovation matérielle et logicielle depuis plusieurs années, mais c’est l’inférence qui permet aux entreprises de tirer parti de leurs efforts en matière d’intelligence artificielle.

L’inférence et l’entraînement nécessitent des configurations matérielles différentes. L’entraînement nécessite une arithmétique à virgule flottante à demi-précision ou à simple précision et la possibilité de traiter simultanément de nombreux vecteurs de données similaires. L’inférence a des exigences de calcul totales beaucoup plus faibles, se concentre davantage sur la latence (délai de prise de décision) et peut tirer profit de formats numériques de plus faible précision, tels que des entiers 8 bits et 16 bits.

La gamme deprocesseurs évolutifs Intel® Xeon® de 2e génération se concentre principalement sur cette seconde phase (l’inférence), avec une toute nouvelle fonctionnalité appelée Deep Learning Boost. La technologie Intel® Deep Learning Boost introduit une arithmétique de précision réduite (entiers 8 et 16 bits) dans les larges unités vectorielles de 512 bits de Xeon (AVX512). C’est une capacité considérable pour une inférence de précision réduite, car les processeurs Intel® Xeon® compatibles avec le Deep Learning Boost peuvent traiter simultanément 64 entiers 8 bits (ou 32 entiers 16 bits) dans une seule instruction matérielle ! En associant cette fonction à la possibilité d’effectuer des opérations fusionnées, telles que l’opération Fused Multiply Add (FMA), sur ces larges vecteurs à faible précision, le débit du système augmente considérablement.

Dell EMC a évalué les améliorations de performances réalisables avec Intel® Deep Learning Boost en matière d’inférence du réseau neuronal. L’illustration ci-dessus montre le niveau d’amélioration que votre entreprise peut atteindre en déployant lesprocesseurs évolutifs Intel® Xeon® de 2e génération avec la technologie Intel® Deep Learning Boost. Lesprocesseurs évolutifs Intel® Xeon® de 1re génération (nom de code « Skylake ») sont capables de traiter 258 images par seconde pour l’inférence, avec un modèle ResNet-50 en simple précision (FP32), et 389 images par seconde avec une précision d’entiers 8 bits réduite. Les nouvelles instructions introduites avec le Deep Learning Boost dans lesprocesseurs évolutifs Intel® Xeon® de 2e génération permettent, au minimum, de tripler le débit, avec une précision d’entiers de 8 bits à 1278 images par seconde !

Pourquoi est-ce important ?

Qu’est-ce que cela signifie pour votre entreprise ? Chaque inférence de votre modèle d’IA constitue une nouvelle information ou une charge de travail automatisée qui élimine les obstacles à la décision. Chacune de ces informations (ou chacun de ces obstacles supprimés) peut se traduire par une nouvelle vente, une vente incitative de plus ou une décision d’investissement plus rapide. C’est de l’argent sonnant et trébuchant.

Dans un monde axé sur les données, les entreprises qui se lancent dans la transformation numérique ont besoin de l’IA, et en particulier du Deep Learning, pour rester compétitives. Bien que l’entraînement des modèles d’IA ait constitué, au début, une priorité, l’inférence permet aux entreprises de tirer véritablement parti des avantages de l’IA. Les serveurs Dell EMC PowerEdge équipés desprocesseurs évolutifs Intel® Xeon® de 2e génération avec la technologie Intel Deep Learning Boost peuvent aider votre entreprise à tirer pleinement parti du potentiel de l’IA, grâce à une inférence des modèles plus performante. Et des performances supérieures signifient une croissance de l’activité.

 

Article Properties


Affected Product

High Performance Computing Solution Resources, PowerEdge C6420

Last Published Date

21 Feb 2021

Version

3

Article Type

Solution