Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products
  • Manage your Dell EMC sites, products, and product-level contacts using Company Administration.

Aceleración de las cargas de trabajo de aprendizaje profundo con procesadores escalables Intel Xeon de segunda generación

Summary: Inteligencia artificial, Big Data, computación de alto rendimiento, servidores, aprendizaje profundo, Deep Learning Boost, inferencia, Cascade Lake, C6420

This article may have been automatically translated. If you have any feedback regarding its quality, please let us know using the form at the bottom of this page.

Article Content


Symptoms

El artículo fue escrito por Lucas Wilison y Frank Han de la HPC del Laboratorio de innovación de HPC y AI de Dell EMC en mayo del 2019.

Resolution

 HPC evoluciona constantemente y, con ello, las cargas de trabajo. A medida que los conjuntos de datos se vuelven más grandes y complejos, las cargas de trabajo de IA (inteligencia artificial), como el aprendizaje profundo, adquieren un lugar central. Más y más cargas de trabajo de aprendizaje profundo ahora se ejecutan a través de sistemas HPC potentes, escalables y de baja latencia, que resuelven desafíos que no se imaginaban hace una década. El aprendizaje profundo está impulsando las cargas de trabajo tradicionales de HPC en los sectores de ciencias biológicas, fabricación digital, petróleo y gas, finanzas, etc. para generar información más significativa a partir de datos en menos tiempo y con mayor precisión. Intel reconoce que los métodos de IA ahora son componentes fundamentales de las cargas de trabajo de HPC. Para abordar la necesidad de capacitar y, lo que es más importante, facilitar una toma de decisiones más rápida para los modelos de IA, Intel ha puesto estas cargas de trabajo al frente y al centro con la nuevasegunda Generación de procesadores escalables Intel® Xeon®.

2segunda Generación de procesadores escalables Intel® Xeon®

2segunda La generación de procesadores escalables Intel® Xeon® ofrece una gran cantidad de funcionalidades nuevas y mejoradas, incluida la capacidad de implementar la memoria persistente Intel® Optane™ DC, velocidades de DRAM mejoradas, mayor capacidad de procesamiento para conjuntos de instrucciones tradicionales, como FP32 de precisión única, y nueva funcionalidad de procesamiento para cargas de trabajo de aprendizaje profundo con el nuevo conjunto de instrucciones Intel® Deep Learning Boost.

Deep Learning Boost en lasegunda Generación de procesadores escalables Intel® Xeon®

El aprendizaje profundo es el proceso para desarrollar modelos utilizando redes neuronales artificiales que consisten en muchas unidades de procesamiento independientes, o neuronas, conectadas en un gráfico denso. Las redes neuronales han demostrado tener una sorprendente capacidad para identificar patrones desconocidos o imprevistos en todo tipo de datos y se han aplicado a dominios que van desde el reconocimiento y el análisis de imágenes y videos, la transformación de audio y lenguaje, hasta los datos de series de tiempo y el análisis de detección de anomalías.

El proceso de uso de redes neuronales para desarrollar modelos de vanguardia se divide en dos fases: el entrenamiento, en el cual los datos existentes se utilizan para enseñar a la red neuronal cómo identificar patrones; y la inferencia, en la cual el modelo entrenado está expuesto a nuevos datos y se espera que tome las decisiones apropiadas. Y, si bien el proceso de capacitación de redes neuronales ha sido el foco de la innovación de hardware y software durante varios años, es la inferencia a partir de la cual las empresas reciben beneficios de sus esfuerzos en inteligencia artificial.

La inferencia tiene diferentes requisitos de hardware en comparación con el entrenamiento. El entrenamiento requiere aritmética de punto flotante de precisión media o simple y la capacidad de procesar muchos vectores grandes de datos similares simultáneamente. La inferencia tiene requisitos de cómputo totales mucho más bajos, se enfoca más en la latencia (tiempo de decisión) y puede aprovechar los formatos numéricos de menor precisión, como los enteros de 8 y 16 bits.

Lasegunda La generación de procesadores escalables Intel® Xeon® se centra principalmente en esta segunda fase (inferencia) con una funcionalidad completamente nueva conocida como Deep Learning Boost. Intel® Deep Learning Boost ofrece aritmética de precisión reducida (enteros de 8 bits y 16 bandejas) a las unidades vectoriales de ancho de 512 bits de Xeon (AVX512). Esta es una gran capacidad de inferencia de precisión reducida, ya que los procesadores Intel® Xeon® habilitados para Deep Learning Boost pueden procesar simultáneamente 64 enteros de 8 bits (o 32 enteros de 16 bits) en una sola instrucción de hardware. Combine esto con la capacidad de realizar operaciones fusionadas, como Fused Multiply Add (FMA) en estos vectores anchos de baja precisión, y para aumentar significativamente el rendimiento del sistema.

Dell EMC ha estado comparando las mejoras de rendimiento realizables que Intel® Deep Learning Boost puede aportar a la inferencia de la red neuronal. En la figura anterior se muestra la cantidad de mejoras que una organización podría obtener con la implementación de lasegunda Generación de procesadores escalables Intel® Xeon® con Intel® Deep Learning Boost. Mientras que laprimera Generación los procesadores escalables Intel® Xeon® (con nombre en código "Skylake") son capaces de procesar 258 imágenes por segundo en el parámetro de referencia de inferencia ResNet-50 en precisión única (FP32) y 389 imágenes por segundo en una precisión de enteros reducida de 8 bits, las nuevas instrucciones que Deep Learning Boost aporta a 2segunda La generación de procesadores escalables Intel® Xeon® puede triplicar el rendimiento en una precisión de enteros de 8 bits a 1278 imágenes por segundo.

Por qué esto es importante

¿Qué significa esto para un negocio? Cada inferencia que hace el modelo de IA es una información que no tenía antes, o una carga de trabajo que ha automatizado que elimina una barrera para tomar una decisión. Cada una de esos detalles, cada una de las barreras eliminadas, se puede traducir en una nueva venta, una venta adicional o una decisión de inversión más rápida. Eso es dinero en los bolsillos de una empresa.

A medida que las empresas experimentan una transformación digital, el uso de la IA (y del aprendizaje profundo) será fundamental para seguir siendo competitivos en un mundo basado en datos. Y mientras que la capacitación en modelos de IA ha sido el enfoque en esta etapa temprana, la inferencia es la forma en que las empresas realmente podrán notar los beneficios de la IA. Servidores Dell EMC PowerEdge con tecnología de lasegunda La generación de procesadores escalables Intel® Xeon® con Intel® Deep Learning Boost puede ayudar a su empresa a aprovechar todo el potencial de la IA a través de una inferencia de modelos de mayor rendimiento. Y un mayor rendimiento se traduce en un mejor negocio.

 

Article Properties


Affected Product

High Performance Computing Solution Resources, PowerEdge C6420

Last Published Date

21 Feb 2021

Version

3

Article Type

Solution