HPC er under konstant forandring, og det gælder således også arbejdsbelastningerne. Da datasæt bliver større og mere komplekse, kommer AI-arbejdsbelastninger såsom Deep Learning i fokus. Flere og flere Deep Learning-arbejdsbelastninger køres nu øverst på effektive, skalerbare HPC-systemer med lav latenstid og løser udfordringer, man ikke kunne forestille sig for et årti siden. Traditionelle HPC-arbejdsbelastninger inden for naturvidenskab, digital produktion, olie og gas, økonomi og så videre får næring gennem Deep Learning til at generere en mere meningsfyldt indsigt fra data på kortere tid og med større nøjagtighed. Intel erkender, at AI-metoder nu er vigtige komponenter i HPC-arbejdsbelastninger. For at tilgodese behovet for både uddannelse og endnu vigtigere at muliggøre hurtigere beslutningstagning i forbindelse med AI-modeller har Intel sat disse arbejdsbelastninger foran og midt i den nye 2. generations skalerbare Intel® Xeon®-processorserie.
2. generations Intel® Xeon®-processorer
2. generations skalerbare Intel® Xeon®-processorer giver en lang række nye og forbedrede funktioner, herunder muligheden for at implementere Intel® Optane™ DC-permanent hukommelse, forbedrede DRAM-hastigheder, større databehandlingskapacitet til traditionelle instruktionssæt som enkelt præcision FP32 og ny databehandlingskapacitet til Deep Learning-arbejdsbelastninger i det nye Intel® Deep Learning Boost-instruktionssæt.
Deep Learning Boost på 2. generations Intel® Xeon®-processorer
Deep Learning er processen med at udvikle modeller, der bruger kunstige, neurale netværk, der består af mange uafhængige processorenheder, eller neuroner, forbundet i en tæt graf. Neurale netværk har vist en forbløffende evne til at identificere ukendte eller uventede mønstre i alle former for data og anvendes inden for domæner lige fra billed- og videogenkendelse og -analyse til lyd- og sprogomdannelse til tidsserier af data og analyse af uregelmæssigheder.
Processen med at bruge neurale netværk til at udvikle banebrydende modeller inddeles i to faser: uddannelse, hvor eksisterende data bliver brugt til at undervise det neurale netværk i, hvordan man kan identificere mønstre; og interferens, hvor den uddannede model udsættes for nye data og forventes at træffe passende beslutninger. Og mens processen med uddannelse af neurale netværk har være i fokus inden for hardware- og softwareinnovation gennem flere år, er det inden for interferens, at virksomheder opnår gavn af deres AI-anstrengelser.
Interferens har andre hardwarekrav end uddannelse. Uddannelse kræver halvpræcisions- eller enkeltpræcisions-aritmetik med flydende punkt og muligheden for at behandle mange større vektorer af ensartede data samtidigt. Interferens har et meget lavere, samlet databehandlingskrav og fokuserer mere på latenstid (tid til beslutningstagen) og kan udnytte numeriske formater med lavere præcision såsom 8-bit og 16-bit heltal.
Den skalerbare 2. generations Intel® Xeon®-processorserie fokuserer primært på denne anden (interferens) fase med en helt ny funktion, der kaldes Deep Learning Boost. Intel® Deep Learning Boost bringer aritmetik med reduceret præcision (8-bit og 16-bit heltal) ind i Xeon's 512-bit brede vektorenheder (AVX512). Dette er en enorm mulighed for interferens med reduceret præcision, fordi Deep Learning Boost-kompatible Intel® Xeon®-processorer samtidigt kan behandle 64 8-bit heltal (eller 32 16-bit heltal)i en enkelt hardwareinstruktion! Hvis man sammenholder dette med evnen til at udføre sammensatte handlinger, såsom FMA (Fused Multiply Add) på disse omfattende lavpræcisionsvektorer, stiger systemets databehandlingskapacitet betydeligt.
Dell EMC har foretaget en benchmarking-analyse af de realiserbare ydeevneforbedringer, som Intel® Deep Learning Boost kan give den neurale netværksinterferens. Ovenstående figur viser, hvor stor en forbedring din virksomhed kan opnå ved at implementere 2. generations skalerbare Intel® Xeon®-processorer med Intel® Deep Learning Boost. Mens 1. generations skalerbare Intel® Xeon®-processorer (med kodenavnet "Skylake") kan behandle 258 billeder pr. sekund iht. ResNet-50 interferensstandarden i enkeltpræcision (FP32) og 389 billeder pr. sekund i reduceret 8-bit heltalspræcision, kan de nye instruktioner, som Deep Learning Boost indfører i 2. generations skalerbare Intel® Xeon®-processorer, mere end tredoble databehandlingsmængden i 8-bit heltalspræcision til 1278 billeder pr. sekund!
Hvorfor har det betydning
Hvad betyder det for din virksomhed? Hver interferens, din AI-model udfører, er en indsigt, du ikke havde før, eller en arbejdsbelastning, du har automatiseret, som fjerner en hindring for en beslutning. Hver af disse indsigter - hver af disse fjernede hindringer - kan omsættes til et nyt salg, mersalg eller en hurtigere investeringsbeslutning. Det er penge lige ned i virksomhedens lommer.
Mens virksomheder gennemgår en digital omstilling, bliver brugen af AI – og Deep Learning i særdeleshed – afgørende for at forblive konkurrencedygtig i en datadrevet verden. Og da uddannelse af AI-modeller har været i fokus på dette tidlige stadie, er interferens den måde, hvorpå virksomhederne reelt høster frugterne af AI. Dell EMC PowerEdge-servere med 2. generations skalerbare Intel® Xeon®-processorer med Intel® Deep Learning Boost kan hjælpe din virksomhed med at realisere det fulde potentiale af AI gennem en interferensmodel med højere ydeevne. Og højere ydeevne betyder bedre forretning.