HPC kehittyy jatkuvasti, joten myös niihin liittyvät kuormitukset kehittyvät. Tietojoukkojen suurentuessa ja monimutkaistuessa AI-kuormitukset, kuten syväoppiminen, muuttuvat keskeisiksi. Syväoppimiskuormituksia suoritetaan enenevässä määrin tehokkaissa, skaalautuvissa ja vähäisen viiveen HPC-järjestelmissä, joissa ratkaistavia haasteita ei osattu edes kuvitella kymmenen vuotta sitten. Esimerkiksi biotieteiden, digitaalisen valmistuksen, öljy- ja kaasuteollisuuden ja rahoitusalan perinteiset HPC-kuormitukset saavat tiedoista entistä enemmän merkityksellisiä analyysitietoja syväoppimisen avulla – aiempaa nopeammin ja entistä tarkemmin. Intel tiedostaa, että AI-menetelmät ovat nykyisin HPC-kuormitusten keskeisiä osia. AI-mallien kouluttamisen ja ennen kaikkea päätöksenteon nopeuttamisen vuoksi Intel keskittyy näihin kuormituksiin 2. sukupolven Intel® Xeon® Scalable -suoritinmallistossa.
2. sukupolven Intel® Xeon® Scalable -suorittimissa
2. sukupolven Intel® Xeon® Scalable -suorittimissa on runsaasti uusia ja parannettuja ominaisuuksia, kuten mahdollisuus ottaa käyttöön pysyvä Intel® Optane™ DC -muisti, parannetut DRAM-nopeudet, perinteisten käskykantojen, kuten perustarkkuuksisten 32-bittisten liukulukujen parantuneet käsittelyominaisuudet ja uudet syväoppimiskuormitusten käsittelyominaisuudet uudella Intel® Deep Learning Boost -käskykannalla.
Deep Learning Boost 2. sukupolven Intel® Xeon® Scalable -suorittimissa
Syväoppiminen on prosessi, jossa malleja kehitetään käyttämällä keinotekoisia neuroverkkoja. Nämä verkot koostuvat itsenäisistä käsittely-yksiköistä eli neuroneista, jotka yhdistyvät tiheäksi kaavioksi. Neuroverkkojen on osoitettu tunnistavan tuntemattomia tai ennakoimattomia malleja kaikenlaisista tiedoista hämmästyttävän hyvin. Niitä on käytetty monenlaisissa yhteyksissä kuva- ja videotunnistuksesta sekä niiden analyysista ääni- ja kielimuunnoksiin sekä aikasarjatietoihin ja poikkeamien tunnistusanalyysiin.
Neuroverkkojen käyttö edistyneiden mallien kehittämisessä on jaettu kahteen vaiheeseen: Opettamisen aikana neuroverkko opetetaan olemassa olevan tiedon avulla tunnistamaan malleja. Päättelyssä opittu malli altistetaan uusille tiedoille ja sen odotetaan tekevän oikeita päätöksiä. Vaikka neuroverkkojen opettaminen on ollut laite- ja ohjelmistoinnovaatioiden keskiössä useiden vuosien ajan, päättely on kuitenkin se, josta yritykset hyötyvät tekoälyn käytössä.
Päättelyn ja opetuksen laitteistovaatimukset ovat erilaiset. Opetus edellyttää puolitarkkuuden tai perustarkkuuden liukulukuaritmetiikkaa ja mahdollisuutta käsitellä useita suuria samankaltaisten tietojen vektoreita samanaikaisesti. Päättelyn kokonaislaskentavaatimukset ovat alhaisemmat. Siinä keskitytäänkin viiveeseen (aika päätöksentekoon) ja hyödynnetään pienemmän tarkkuuden numeromuotoja, kuten 8- ja 16-bittisiä kokonaislukuja.
2. sukupolven Intel® Xeon® Scalable -suoritinmallisto keskittyy lähinnä tähän toiseen vaiheeseen (päättelyyn) uudella Deep Learning Boost -toiminnolla. Intel® Deep Learning Boost tuo pienemmän tarkkuusluokan aritmetiikan (8- ja 16-bittiset kokonaisluvut) Xeonin 512-bittisiin vektoriyksiköihin (AVX512). Tämä on merkittävä ominaisuus pienemmän tarkkuusluokan päättelyssä, koska Deep Learning Boost -yhteensopivat Intel® Xeon® -suorittimet voivat samanaikaisesti käsitellä 64 8-bittistä kokonaislukua (tai 32 16-bittistä kokonaislukua) yhdessä laitekäskyssä. Kun tämä yhdistetään mahdollisuuteen suorittaa yhdistettyjä toimintoja, kuten FMA (Fused Multiply Add), näissä laajoissa alhaisen tarkkuuden vektoreissa, järjestelmän siirtonopeus paranee merkittävästi.
Dell EMC on arvioinut toteutettavia suorituskyvyn parannuksia, joita Intel® Deep Learning Boost saa aikaan neuroverkon päättelyssä. Edellä olevassa kuvassa näkyy, miten paljon parannuksia organisaatioon saadaan ottamalla käyttöön 2. sukupolven Intel® Xeon® Scalable -suorittimet, joissa on Intel® Deep Learning Boost -toiminto. Siinä missä 1. sukupolven Intel® Xeon® Scalable -suorittimilla (joiden koodinimi on Skylake) voi käsitellä 258 kuvaa sekunnissa ResNet-50-päättelyssä perustarkkuudella (FP32) ja 389 kuvaa sekunnissa 8-bittisten kokonaislukujen pienennetyllä tarkkuudella, Deep Learning Boost -toiminnon 2. sukupolven Intel® Xeon® Scalable -suorittimiin tuomat käskyt voivat yli kolminkertaistaa 8-bittisen kokonaislukutarkkuuden siirtonopeuden 1278 kuvaan sekunnissa.
Merkitys
Mitä tämä tarkoittaa liiketoiminnan kannalta? Jokainen AI-mallin tekemä päättely tuo mukaan tietoja, joita sinulla ei aiemmin ollut, tai automatisoidun kuormituksen, joka poistaa päätöksenteon esteitä. Jokainen saatu tieto ja poistettu este voi johtaa uuteen kauppaan, lisämyyntiin tai nopeammin tehtyyn investointipäätökseen. Tämä tarkoittaa rahaa yrityksen kassassa.
Kun yritykset toteuttavat digitalisaatiota, tekoälyn ja etenkin syväoppimisen hyödyntäminen on olennaista kilpailukyvyn säilyttämisesti tietoon perustuvassa maailmassa. Ja vaikka näin alkuvaiheessa on keskitytty AI-mallien opettamiseen, päättely on tapa, jolla yritykset pystyvät todella hyödyntämään tekoälyn mahdollisuuksia. Dell EMC PowerEdge -palvelimet, joissa on 2. sukupolven Intel® Xeon® Scalable -suorittimet ja Intel® Deep Learning Boost -toiminto, auttavat yritystä hyödyntämään tekoälyn kaikkia mahdollisuuksia tehokkaan mallin päättelyn avulla. Ja tämä teho puolestaan näkyy parantuneena liiketoimintana.