Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products
Some article numbers may have changed. If this isn't what you're looking for, try searching all articles. Search articles

Aceleração de cargas de trabalho de deep learning com processadores escaláveis Intel Xeon de 2ª geração

Summary: Inteligência artificial, Big data, Computação de alto desempenho, Servidores, Deep learning, Deep Learning Boost, Inferência, Lago em cascata, C6420

This article applies to   This article does not apply to 

Symptoms

O artigo foi escrito por Lucas Wilison e Frank Han do laboratório de inovação de HPC e IA da Dell EMC em maio de 2019.

Resolution

 A HPC está em constante evolução, portanto, as cargas de trabalho também estão. À medida que os conjuntos de dados se tornam maiores e mais complexos, as cargas de trabalho de IA, como deep learning, estão levando se tornando o centro das atenções. Cada vez mais cargas de trabalho de deep learning estão sendo executadas em sistemas de HPC potentes, escaláveis e de baixa latência que solucionam desafios que eram inimagináveis há uma década. As cargas de trabalho de HPC tradicionais em ciências biológicas, fabricação digital, petróleo e gás, finanças e assim por diante estão sendo impulsionadas pelo deep learning para gerar insights mais significativos dos dados em menos tempo e com mais precisão. A Intel reconhece que os métodos de IA agora são componentes críticos das cargas de trabalho de HPC. Para atender à necessidade de treinar e, mais importante, facilitar a tomada de decisões para os modelos de IA, a Intel colocou essas cargas de trabalho em destaque com a novasegunda Geração da linha de processadores escaláveis Intel® Xeon®.

2segunda Geração de processadores escaláveis Intel® Xeon®

2segunda Os processadores escaláveis Intel® Xeon® de última geração trazem uma série de recursos novos e aprimorados, incluindo a capacidade de implantar memória persistente de Intel® Optane™ DC, melhores velocidades de DRAM, maior capacidade de processamento para conjuntos de instruções tradicionais, como FP32 de precisão única, e novo recurso de processamento para cargas de trabalho de deep learning com o novo conjunto de instruções do Intel® Deep Learning Boost.

Deep Learning Boost nasegunda Geração de processadores escaláveis Intel® Xeon®

O deep learning é o processo de desenvolvimento de modelos usando redes neurais artificiais, que consistem em muitas unidades de processamento independentes, ou neurônios, conectados em um gráfico denso. As redes neurais demonstraram uma incrível capacidade de identificar padrões desconhecidos ou imprevistos em todos os tipos de dados e foram aplicadas a domínios que variam de reconhecimento e análise de imagens e vídeos, até transformação de áudio e linguagem, até a análise de dados de série temporal e detecção de anomalias.

O processo de uso de redes neurais para o desenvolvimento de modelos de última geração é dividido em duas fases: treinamento, em que os dados existentes são usados para ensinar a rede neural a identificar padrões; e inferência, em que o modelo treinado é exposto a novos dados e deve tomar decisões apropriadas. E, embora o processo de treinamento de redes neurais tenha sido o foco da inovação de hardware e software por vários anos, é na inferência de que as empresas estão se beneficiando de seus esforços em IA.

A inferência tem requisitos de hardware diferentes do treinamento. O treinamento requer aritmética de ponto flutuante de meia precisão ou de precisão única e a capacidade de processar muitos vetores grandes de dados semelhantes simultaneamente. A inferência tem requisitos de computação totais muito baixos, é mais voltada para a latência (tempo-para-decisão) e pode aproveitar formatos numéricos de menor precisão, como inteiros de 8 e 16 bits.

Asegunda geração da linha de processadores escaláveis Intel® Xeon® é voltada principalmente para essa segunda fase (inferência) com um recurso totalmente novo conhecido como Deep Learning Boost. O Intel® Deep Learning Boost oferece redução da aritmética de precisão (números inteiros de 8 e 16 bin) para as unidades de vetores de largura de 512 bits (AVX512) do Xeon. Esse é um grande recurso para a inferência de precisão reduzida, pois os processadores Intel® Xeon® com deep learning boost podem processar simultaneamente 64 inteiros de 8 bits (ou 32 inteiros de 32 16 bits) em uma única instrução de hardware! Isso somado à capacidade de realizar operações fundidas, como a Adição de Multiplicação Fundida (FMA), nesses vetores de baixa precisão e a taxa de transferência do sistema aumenta substancialmente.

A Dell EMC tem feito testes de desempenho com as melhorias de performance que o Intel® Deep Learning Boost pode trazer à inferência de rede neural. A figura acima mostra o tamanho das melhorias que a sua organização pode alcançar com a implantação dasegunda geração de processadores® escaláveis Intel Xeon® com Intel® Deep Learning Boost. Enquanto aprimeira geração de processadores escaláveis Intel® Xeon® (codinome "Skylake") são capazes de processar 258 imagens por segundo no teste de desempenho de inferência ResNet-50 em uma única precisão (FP32) e 389 imagens por segundo em uma precisão de inteiro de 8 bits reduzida, as novas instruções que o Deep Learning Boost traz para asegunda geração de processadores escaláveis Intel® Xeon® pode mais do que triplicar a taxa de transferência em inteiro de 8 bits para 1278 imagens por segundo!

Por que isso é importante

O que isso significa para a sua empresa? Cada inferência que seu modelo de IA faz é uma percepção que você não tinha antes, ou uma carga de trabalho automatizada que elimina uma barreira para uma decisão. Cada uma dessas percepções – cada uma dessas barreiras removidas – pode se traduzir em uma nova venda, uma venda adicional ou uma decisão de investimento mais rápida. Isso é dinheiro nos bolsos da sua empresa.

À medida que as empresas passam por uma transformação digital, o uso da IA – e do deep learning especificamente – serão essenciais para manter a competitividade em um mundo voltado para os dados. E, embora o treinamento de modelos de IA tenha sido o foco nesta fase inicial, a inferência é a maneira como as empresas realmente percebem os benefícios da IA. Servidores Dell EMC PowerEdge com asegunda geração de processadores escaláveis Intel® Xeon® com Intel® Deep Learning Boost pode ajudar sua empresa a obter todo o potencial da IA por meio de uma inferência de modelos de maior desempenho. E maior desempenho se traduz em melhores negócios.

 

Affected Products

High Performance Computing Solution Resources, PowerEdge C6420