Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

Szybsza obsługa obciążeń roboczych głębokiego uczenia dzięki skalowalnym procesorom Intel Xeon drugiej generacji

Summary: Sztuczna inteligencja, big data, przetwarzanie o wysokiej wydajności, serwery, głębokie uczenie, Deep Learning Boost, wnioskowanie, Cascade Lake, C6420

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Artykuł został napisany przez Lucasa Wilisona i Franka Hana z laboratorium Dell EMC HPC & AI Innovation Lab w maju 2019.

Resolution

 Systemy HPC stale się rozwijają, co oznacza większe obciążenia robocze. Ponieważ zestawy danych stają się coraz większe i bardziej złożone, zadania związane ze sztuczną inteligencją, takie jak głębokie uczenie, wychodzą na pierwszy plan. Obciążenia związane z głębokim uczeniem są obecnie coraz częściej uruchamiane w oparciu o wydajne, skalowalne systemy HPC o niskim opóźnieniu rozwiązujące problemy, które dziesięć lat temu były niewyobrażalne. W tradycyjnych obciążeniach roboczych HPC związanych z naukami przyrodniczymi, produkcją cyfrową, ropą i gazem, finansami i podobnymi zagadnieniami wykorzystuje się technikę głębokiego uczenia, aby w krótszym czasie i z większą dokładnością wyciągać z danych bardziej znaczące wnioski. Firma Intel zdaje sobie sprawę, że metody sztucznej inteligencji są teraz krytycznymi składnikami obciążeń roboczych systemów HPC. Aby sprostać potrzebom zarówno w zakresie uczenia, jak i, co ważniejsze, szybszego podejmowania decyzji w modelach sztucznej inteligencji, firma Intel nadała tym zadaniom priorytet w nowej linii procesorów Intel® Xeon® Scalable drugiej generacji.

Procesory Intel® Xeon® Scalable drugiej generacji

Procesory Intel® Xeon® Scalable drugiej generacji oferują wiele nowych i ulepszonych funkcji, w tym możliwość wdrażania trwałej pamięci Intel® Optane™ DC, zwiększoną szybkość pamięci DRAM, większe możliwości przetwarzania tradycyjnych zestawów instrukcji, takich jak FP32 o pojedynczej precyzji, oraz nowe możliwości przetwarzania w celu obsługi obciążeń roboczych głębokiego uczenia, które wynikają z zastosowania® nowego zestawu instrukcji Intel Deep Learning Boost.

Technologia Deep Learning Boost w procesorach Intel® Xeon® Scalable drugiej generacji

Głębokie uczenie to proces opracowywania modeli wykorzystujących sztuczne sieci neuronowe, które składają się z wielu niezależnych jednostek przetwarzających lub neuronów połączonych w grafy o dużej gęstości. Sieci neuronowe wykazały zadziwiającą zdolność do identyfikowania nieznanych lub nieprzewidzianych wzorców we wszystkich rodzajach danych i znalazły zastosowanie w rożnych dziedzinach, od rozpoznawania oraz analizy obrazów i wideo, przez transformację audio i języka, po analizę danych szeregów czasowych i wykrywania anomalii.

Proces korzystania z sieci neuronowych do opracowania najnowocześniejszych modeli jest podzielony na dwa etapy: szkolenia, w których sieć neuronowa uczy się identyfikowania wzorców na podstawie istniejących danych, oraz wnioskowania, w którym wyszkolony model styka się z nowymi danymi i oczekuje się od niego podjęcia odpowiednich decyzji. Mimo że proces szkolenia sieci neuronowych od szeregu lat był przedmiotem innowacji w zakresie sprzętu i oprogramowania, to właśnie prace w zakresie sztucznej inteligencji używanej do wnioskowania przynoszą firmom korzyści.

Wnioskowanie ma odmienne wymagania sprzętowe niż szkolenie. Uczenie wymaga zmiennoprzecinkowych operacji arytmetycznych o połowicznej lub pojedynczej precyzji oraz możliwości jednoczesnego przetwarzania wielu dużych wektorów lub podobnych danych. Wnioskowanie ma znacznie niższe całkowite wymagania dotyczące obliczeń i ważniejsze są tutaj opóźnienia (czas do podjęcia decyzji). W tym przypadku można korzystać z formatów numerycznych o mniejszej precyzji, takich jak 8-bitowe i 16-bitowe liczby całkowite.

Linia procesorów Intel® Xeon® Scalable, wyposażona w zupełnie nową technologię Deep Learning Boost, jest przeznaczona przede wszystkim do tej drugiej fazy (wnioskowania). Technologia® Intel Deep Learning Boost umożliwia wykorzystanie arytmetyki o obniżonej precyzji (liczb całkowitych 8- i 16-bitowych) z 512-bitowymi jednostkami wektorowymi procesorów Xeon (AVX512). Zapewnia to ogromne możliwości wnioskowania z użyciem obniżonej precyzji, ponieważ procesory Intel Xeon®® z obsługą technologii Deep Learning Boost umożliwiają jednoczesne przetwarzanie 64 8-bitowych liczb całkowitych (lub 32 16-bitowych) w ramach jednej instrukcji sprzętowej! W połączeniu z możliwością wykonywania operacji typu Fused, takich jak Fused Multiply Add (FMA) na tych szerokich wektorach o niskiej precyzji pozwala to znacznie podnieść przepustowość systemu.

Firma Dell EMC przeprowadziła test porównawczy wydajności, jaką technologia Intel® Deep Learning Boost może zapewnić w zakresie wnioskowania z użyciem sieci neuronowych. Na rysunku powyżej przedstawiono, jak wiele usprawnień w organizacji można zrealizować, wdrażając procesory Intel® Xeon® Scalable drugiej generacji z® technologią Intel Deep Learning Boost. Podczas gdy procesory Intel ® Xeon® Scalable pierwszej generacji (nazwa kodowa „Skylake”) podczas testu porównawczego ResNet-50 są w stanie przetwarzać 258 obrazów na sekundę z użyciem instrukcji pojedynczej precyzji (FP32) i 389 obrazów na sekundę przy zmniejszonej precyzji wykorzystującej 8-bitowe liczby całkowite, to nowe instrukcje zapewniane przez technologię Deep Learning Boost w procesorach Intel® Xeon® Scalable drugiej generacji pozwalają ponad trzykrotnie zwiększyć przepustowość do 1278 obrazów na sekundę w przypadku 8-bitowej precyzji liczb całkowitych!

Dlaczego to ma znaczenie?

Co to oznacza dla Twojej firmy? Każdy wnioskowanie z użyciem modelu sztucznej inteligencji oznacza dostarczenie nowych wniosków lub zautomatyzowanie obciążenia, które eliminuje barierę w podejmowaniu decyzji. Każdy z tych wniosków i każda z tych usuniętych barier może przełożyć się na nową sprzedaż, sprzedaż dodatkowego produktu lub szybszą decyzję inwestycyjną. To oznacza pieniądze na koncie Twojej firmy.

Firmy przechodzą obecnie transformację cyfrową, dlatego korzystanie ze sztucznej inteligencji — i głębokiego uczenia w szczególności — będzie miało kluczowe znaczenie dla utrzymania konkurencyjności w świecie opartym na danych. Podczas gdy na wczesnym etapie głównym celem było uczenie modeli AI, wnioskowanie jest dla firm drogą do czerpania realnych korzyści ze sztucznej inteligencji. Serwery Dell EMC PowerEdge z procesorami Intel® Xeon® Scalable drugiej generacji i technologią Intel® Deep Learning Boost ułatwiają firmom pełne wykorzystanie potencjału sztucznej inteligencji, zapewniając wyższą wydajność wnioskowania z użyciem modeli. Wyższa wydajność przekłada się na większe zyski firmy.

 

Affected Products

High Performance Computing Solution Resources, PowerEdge C6420
Article Properties
Article Number: 000142922
Article Type: Solution
Last Modified: 21 Feb 2021
Version:  3
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.