メイン コンテンツに進む
  • すばやく簡単にご注文が可能
  • 注文内容の表示、配送状況をトラック
  • 会員限定の特典や割引のご利用
  • 製品リストの作成とアクセスが可能

Dell EMC Ready Solution til HPC BeeGFS lagring med højydelse

概要: PowerEdge R740xd, PowerEdge R640, PowerSwitch S3048-ON, Mellanox SB7890, BeeGFS v7.1.3, HPC og AI Innovation Lab, HPC, BeeGFS storageløsning med høj ydeevne, IOzone, sekventiel læse- og skriveydeevne, vilkårlig læse- og skriveydeevne ...

この記事は次に適用されます: この記事は次には適用されません: この記事は、特定の製品に関連付けられていません。 すべての製品パージョンがこの記事に記載されているわけではありません。

現象

Artikel skrevet af Nirmala Sundararajan fra Dell EMC HPC and AI Innovation Lab i november 2019

原因

Dell EMC Ready Solution til HPC BeeGFS lagring med højydelse

解決方法

Indholdsfortegnelse

  1. Indledning
  2. Løsningsreferencearkitektur
  3. Hardware- og softwarekonfiguration
  4. Oplysninger om løsningskonfiguration
  5. R740xd, 24x NVMe-drev, oplysninger om CPU-tilknytning
  6. Karakterisering af ydeevne
  7. Konklusion og fremtidigt arbejde
     

Indledning

Dell EMC HPC-teamet er stolte over at kunne annoncere udgivelsen af "Dell EMC Ready Solutions for HPC BeeGFS Storage", som er den seneste tilføjelse til HPC-storageporteføljen. Denne løsning anvender R740xd-servere, som hver har 24 x Intel P4600 1,6 TB NVMe, Express Flash-drev til blandet brug og to Mellanox ConnectX-5 InfiniBand EDR-adaptere. I denne 24 NVMe-drevkonfiguration tilsluttes 12 NVMe SSD'er til en PCIe-switch, og hver switch tilsluttes én CPU via et x16 PCIe-forlængerkort. Desuden er hver IB-grænseflade forbundet til en CPU. En sådan afbalanceret konfiguration, hvor hver CPU er tilsluttet én InfiniBand-adapter og håndterer 12 NVMe SSD'er, giver maksimal ydeevne ved at sikre, at processorerne er lige beskæftiget med at håndtere I/O-anmodninger til og fra NVMe-drevene.

Fokus for løsningen er højtydende I/O, og den er designet som en højhastigheds ridseløsning.  Kernen i løsningen er brugen af højhastigheds NVMe SSD'er, der tilbyder meget høj båndbredde og lav latenstid ved at fjerne planlæggeren og køflaskehalse fra bloklaget. BeeGFS-filsystemet understøtter også høj samlet I / O-gennemstrømning

Løsningsreferencearkitektur

Figur 1 viser løsningens referencearkitektur. Administrationsserveren er kun forbundet via Ethernet til metadata- og lagerserverne. Hver metadata- og lagerserver har to InfiniBand-links og er forbundet til det private netværk via Ethernet. Klienterne har ét InfiniBand-link og er forbundet til den private grænseflade via Ethernet.
Dell EMC-parate løsninger til HPC BeeGFS-storage – referencearkitektur
Figur 1:  Dell EMC-parate løsninger til HPC BeeGFS-storage – referencearkitektur

Hardware- og softwarekonfiguration

Tabel 1 og 2 beskriver hardwarespecifikationerne for henholdsvis administrationsserveren og metadata/storageserveren. Tabel 3 beskriver de softwareversioner, der anvendes til løsningen.

 

Tabel 1: PowerEdge R640-konfiguration (administrationsserver)
Server Dell EMC PowerEdge R640
Processor 2 x Intel Xeon Gold 5218 2,3 GHz, 16 kerner
Hukommelse 12 x 8 GB DDR4 2666 MT/s DIMM-moduler – 96 GB
Lokale diske 6 x 300 GB 15K RPM SAS 2,5" harddiske
RAID Controller PERC H740P integreret RAID-controller
Administration af netværk uden for båndet iDRAC9 Enterprise med Lifecycle Controller
Strømforsyninger To strømforsyningsenheder på 1100 W
BIOS-version 2.2.11
Operativsystem CentOS™ 7.6
Kerneversion 3.10.0-957.27.2.el7.x86_64

 

Tabel 2 PowerEdge R740xd-konfiguration (metadata og storageservere)
Server Dell EMC PowerEdge R740xd
Processor 2 x Intel Xeon Platinum 8268 CPU @ 2,90 GHz, 24 kerner
Hukommelse 12 x 32 GB DDR4 2933MT/s DIMM'er – 384 GB
BOSS-kort 2x 240 GB M.2 SATA SSD er i RAID 1 til OS
Lokale drev 24 x Dell Express Flash NVMe P4600 1,6 TB 2,5" U.2
Mellanox EDR-kort 2x Mellanox ConnectX-5 EDR-kort (slot 1 og 8)
Administration af netværk uden for båndet iDRAC9 Enterprise med Lifecycle Controller
Strømforsyninger To strømforsyningsenheder på 2000 W

 

Tabel 3 Softwarekonfiguration (metadata og lagerservere)
BIOS 2.2.11
CPLD 1.1.3
Operativsystem CentOS™ 7.6
Kerneversion 3.10.0-957.el7.x86_64
iDRAC 3.34.34.34
Systemadministrationsværktøj OpenManage Server Administrator 9.3.0-3407_A00
Mellanox OFED 4.5-1.0.1.0
NVMe SSD'er QDV1DP13
*Intel-datacenterværktøj ®  3.0.19
BeeGFS 7.1.3
Grafana 6.3.2
InfluxDB 1.7.7
IOzone-benchmark 3.487
*Til administration og firmwareopdatering af Intel P4600NVMe SSD'er

Oplysninger om løsningskonfiguration

BeeGFS-arkitekturen består af fire hovedtjenester:
  • Administrationsservice
  • Metadata-service
  • Lagerpladsservice
  • Kundeservice
Bortset fra klienttjenesten, som er et kernemodul, er administrations-, metadata- og lagringstjenesterne brugerrumsprocesser. Figur 2 illustrerer, hvordan referencearkitekturen i Dell EMC Ready Solutions for HPC BeeGFS Storage er knyttet til den generelle arkitektur i BeeGFS-filsystemet.
BeeGFS-filsystem på PowerEdge R740xd med NVMe SSD'er
Figur 2:  BeeGFS-filsystem på PowerEdge R740xd med NVMe SSD'er

Administrationsservice

Hvert BeeGFS-filsystem eller navneområde har kun én administrationstjeneste. Administrationstjenesten er den første tjeneste, der skal konfigureres, fordi når vi konfigurerer alle andre tjenester, skal de registreres hos administrationstjenesten.  En PowerEdge R640 bruges som administrationsserver. Ud over at være vært for administrationstjenesten (beegfs-mgmtd.service) er den også vært for overvågningstjenesten (beegfs-mon.service), der indsamler statistikker fra systemet og leverer dem til brugeren ved hjælp af tidsseriedatabasen InfluxDB. Til visualisering af data indeholder beegfs-mon foruddefinerede Grafana-ruder , der kan bruges som standard. Administrationsserveren har 6 x 300 GB harddiske konfigureret i RAID 10 til operativsystemet og InfluxDB.

Metadata-service

Metadatatjenesten er en scale-out-tjeneste, hvilket betyder, at der kan være mange metadatatjenester i et BeeGFS-filsystem. Hver metadatatjeneste har dog nøjagtigt ét metadatamål til lagring af metadata.  På metadatamålet opretter BeeGFS én metadatafil pr. brugeroprettet fil. BeeGFS-metadata distribueres pr. Mappe. Metadatatjenesten leverer datastripingoplysningerne til klienterne og er ikke involveret i dataadgangen mellem filåbning/-lukning.

En PowerEdge R740xd med 24 Intel P4600 1,6 TB NVMe-drev bruges til metadata-storage. Da kravene til lagerkapacitet for BeeGFS-metadata er meget små, blev kun de 12 drev på NUMA zone 0 brugt til at hoste MetaData T-argets (MDT'er) i stedet for at bruge en dedikeret metadataserver, mens de resterende 12 drev på NUMA-zonen er vært for Storage T-argets(ST'er).

Figur 3 viser metadataserveren. De 12 drev, der er indesluttet i det gule rektangel, er MDT'erne i NUMA-zonen 0, mens de 12 drev, der er indesluttet i det grønne rektangel, er ST'erne i NUMA-zone 1. Denne konfiguration undgår ikke kun NUMA-problemer, men giver også nok metadatalager til at lette skalering af kapaciteten og ydeevnen efter behov.

Metadata Server

Figur 3:  Metadataserver

Figur 4 viser RAID-konfigurationen for metadataserveren. Det fremhæver, hvordan drevene i NUMA-zone 0 i metadataserveren er vært for MDT'erne, og dem i NUMA-zone 1 er vært for lagerdataene, mens lagerserverne er vært for ST'erne i begge NUMA-zoner.

Konfiguration af drev i metadataserveren

Figur 4:  Konfiguration af drev i metadataserveren

De 12 drev, der bruges til metadata, er konfigureret som en 6x RAID 1-diskgruppe med 2 drev, der hver fungerer som en MDT. Der kører 6 metadatatjenester, som hver håndterer en MDT. De resterende 12 storagedrev konfigureres i 3x RAID 0-diskgrupper med hver 4 drev. Der kører tre lagertjenester i NUMA 1-zonen, en tjeneste for hver ST. Så serveren, der er medvært for metadata og lagermål, har 6 MDT'er og 3 ST'er. Det kører også 6 metadatatjenester og tre lagringstjenester. Hver MDT er et ext4-filsystem baseret på en RAID 1-konfiguration. ST'erne er baseret på XFS-filsystemet, der er konfigureret i RAID 0.
 

Lagerpladsservice

Ligesom metadatatjenesten er lagringstjenesten også en skaleringstjeneste. Der kan være mange forekomster af lagringstjenesten i et BeeGFS-filsystem. I modsætning til metadatatjenesten kan der dog være flere lagermål pr. lagertjeneste.  Storagetjenesten gemmer indholdet af den stribede brugerfil, også kaldet dataklumpfiler

Figur 5 viser de 5x PowerEdge R740xd-servere, der bruges som storageservere.
Dedikerede storageservere
Figur 5:  Dedikerede storageservere

Hver storageserver er konfigureret med 6x RAID 0-grupper, hver på 4 drev, og er således vært for 6 ST er pr. server (3 pr. NUMA-zone), som vist i figur 6 nedenfor:
Konfiguration af drev i storageserverne
Figur 6:  Konfiguration af drev på storageserverne

I alt er basisreferencearkitekturkonfigurationen vært for 6 MDT er og 33 ST er. Fem dedikerede storageservere giver en rå kapacitet på 211 TB og en brugbar kapacitet på 190TiB. Den estimerede brugbare kapacitet i TiB = Antal drev x kapacitet pr. drev i TB x 0,99 (filsystemets faste drev) x (10^12/2^40). Dette ville være ideelt som en mellemklasse ridseløsning med nok metadatalagring til at lette tilføjelse af flere lagerservere, efterhånden som kapacitetskravene stiger.

På baggrund af følgende faktorer blev der valgt en RAID 0-konfiguration til storagemål frem for RAID 10-konfiguration.
  1. Skriveydelsen blev målt ved hjælp af kommandoen dd ved at oprette en 10 GiB-fil med en 1MiB-blokstørrelse og direkte I/O for data. For RAID 0-enheder var gennemsnittet ca. 5,1 GB/s for hver enhed, mens gennemsnittet for RAID 10-enheder var 3,4 GB/s for hver enhed.
  2. StorageBench-benchmarktest viste, at den maksimale overførselshastighed var 5,5 GB/s for RAID 0-konfiguration, mens den er 3,4 GB/s for en RAID 10-konfiguration. Disse resultater svarer til det, der blev opnået ved hjælp af dd-kommandoer.
  3. RAID 10 giver 50 % udnyttelse af diskkapaciteten og en tilsvarende 50 % reduktion i skriveydeevnen. Brug af RAID 10 er en dyr måde at opnå storageredundans på.
  4. NVMe-drev er dyre og tilbyder hastigheder, som bedst udnyttes i en RAID 0-konfiguration
 

Kundeservice

BeeGFS-klientmodulet skal indlæses på alle værter, der skal have adgang til BeeGFSs-filsystemet. Når beegfs-klienten er indlæst, vil den montere de filsystemer, der er defineret i filen/etc/beegfs/beegfs-mounts.conf i stedet for den sædvanlige tilgang baseret på /etc/fstab.  Vedtagelse af denne tilgang starter beegfs-klienten som enhver anden Linux-tjeneste gennem servicestartscriptet. Det muliggør også automatisk rekompilering af BeeGFS-klientmodulet efter systemopdateringer. 

Når klientmodulet er indlæst, vil det montere de filsystemer, der er defineret i beegfs-mounts.conf. Det er muligt at montere flere beegfs-forekomster på den samme klient som vist nedenfor:

$ kat /etc/beegfs/beegfs-mounts.conf
/mnt/beegfs-medium /etc/beegfs/beegfs-client-medium.conf
/mnt/beegfs-small /etc/beegfs/beegfs-client-small.conf

Ovenstående eksempel viser to forskellige filsystemer monteret på den samme klient. Med henblik på denne test blev 32x C6420-noder brugt som klienter.

R740xd, 24x NVMe-drev, oplysninger om CPU-tilknytning


I 24xNVMe-konfigurationen på PowerEdge R740xd-serveren er der to x16 NVMe-brokort, der leverer PCIe-switch på backplane, som blæser ud og fører drevene (drevene er x4) foran som vist i figur 7 nedenfor:


R740xd, 24x NVMe Oplysninger om CPU-tilknytningFigur 7:  R740xd, 24x NVMe Oplysninger om CPU-tilknytning

I ikke-ensartet hukommelsesadgang (NUMA) er systemhukommelsen opdelt i zoner, der kaldes noder, som tildeles CPU'er eller sokler. Adgang til hukommelse, der er lokal i en CPU, er hurtigere end hukommelse, der er tilsluttet eksterne CPU'er på systemet. Et trådet program fungerer typisk bedst, når trådene har adgang til hukommelse på den samme NUMA-node. Præstationseffekten af NUMA-misser er signifikant og starter generelt ved et præstationshit på 10% eller højere. For at forbedre ydeevnen er tjenesterne konfigureret til at bruge specifikke NUMA-zoner for at undgå unødvendig brug af UPI-links på tværs af stikkontakter og derved reducere latenstiden. Hver NUMA-zone håndterer 12 drev og bruger en af de to InfiniBand EDR-grænseflader på serverne. Denne NUMA-adskillelse opnås ved manuelt at konfigurere NUMA-balancering, ved at oprette brugerdefinerede systemd-enhedsfiler og ved at konfigurere multihoming. Derfor er den automatiske NUMA-balancering deaktiveret som vist nedenfor:

# kat /proc/sys/kernel/numa_balancing
0

Figur 8 viser testbænken, hvor InfiniBand-forbindelserne til NUMA-zonen er fremhævet.  Hver server har to IP-links, og trafikken gennem NUMA 0-zonen leveres af interface IB0, mens trafikken gennem NUMA 1-zonen håndteres af interface IB1.
Prøvestandskonfiguration
Figur 8:  Prøvestandskonfiguration
 

Karakterisering af ydeevne

Dette afsnit præsenterer evalueringen af ydeevnen, der er med til at karakterisere Dell EMC Ready Solution til HPC BeeGFS High Performance Storage Solution. For yderligere detaljer og opdateringer, se venligst en hvidbog, der vil blive offentliggjort senere. Systemydeevnen blev evalueret ved hjælp af IOzone-benchmarket. Løsningen er testet for sekventiel læse- og skrivehastighed og vilkårlig læse- og skrive-IOPS. Tabel 4 beskriver konfigurationen af de C6420-servere, der blev brugt som BeeGFS-klienter i de undersøgelser af ydeevnen, der præsenteres i denne blog.
 
Tabel 4 Klientkonfiguration
Klienter 32x Dell EMC PowerEdge C6420-databehandlingsknudepunkter
BIOS 2.2.9
Processor 2x Intel Xeon Gold 6148 CPU ved 2,40 GHz med 20 kerner pr. processor
Hukommelse  12 x 16 GB DDR4 2666 MT/s DIMM-moduler – 192 GB
BOSS-kort 2x 120 GB M.2-startdrev i RAID 1 til operativsystem
Operativsystem Red Hat Enterprise Linux Server, version 7.6
Kerneversion 3.10.0-957.el7.x86_64
Interconnect 1 x Mellanox ConnectX-4 EDR-kort
OFED-version 4.5-1.0.1.0

Sekventiel skrivning og læsning N-N

For at evaluere sekventielle læsninger og skrivninger blev IOzone-benchmarket brugt i sekventiel læse- og skrivetilstand. Disse tests blev udført på flere trådtællinger, der startede ved 1 tråd og steg i kræfter på 2, op til 1024 tråde. Ved hvert trådantal blev der genereret et lige antal filer, da denne test fungerer på en fil pr. tråd eller sagen N-klienter til N-fil (N-N). Processerne blev fordelt på 32 fysiske klientnoder på en round robin eller cyklisk måde, så anmodningerne fordeles ligeligt, og der er belastningsbalancering. Der blev valgt en samlet filstørrelse på 8 TB, som blev ligeligt fordelt mellem antallet af tråde inden for en given test. Den samlede filstørrelse blev valgt stor nok til at minimere virkningerne af caching fra serverne såvel som fra BeeGFS-klienter. IOzone blev kørt i en kombineret skrivetilstand og derefter læst (-i 0, -i 1) for at gøre det muligt at koordinere grænserne mellem operationerne. Til denne test og resultater brugte vi en 1MiB-rekordstørrelse til hver kørsel. De kommandoer, der anvendes til sekventielle N-N-tests, er angivet nedenfor:

Sekventielle skrivninger og læsninger: iozone -i 0 -i 1 -c -e -w -r 1m -i -s $Size -t $Thread -+n -+m /path/to/threadlist

OS-cacher blev også tabt eller renset på klientnoderne mellem iterationer samt mellem skrive- og læsetest ved at køre kommandoen:

# synkronisering &&; ekko 3 > / proc / sys / vm / drop_caches

Standardantallet af striber for Beegfs er 4. Blokstørrelsen og antallet af mål pr. fil kan dog konfigureres pr. mappe. For alle disse tests blev BeeGFS stripe-størrelse valgt til at være 2MB, og stripe-antallet blev valgt til at være 3, da vi har tre mål pr. NUMA-zone som vist nedenfor:

$ beegfs-ctl --getentryinfo --mount=/mnt/beegfs /mnt/beegfs/benchmark --verbose
EntryID: 0-5D9BA1BC-1
Overordnet ID: rodmetadatanode
: node001-numa0-4 [ID: 4]
Detaljer om stribemønster:
+ Type: RAID0
+-stykkestørrelse: 2M
+ Antal storagemål: ønsket:

3+ Opbevaringspulje: 1 (Standard)
Inode hash-sti: 7/5E/0-5D9BA1BC-1

De gennemsigtige enorme sider blev deaktiveret, og følgende indstillingsmuligheder er på plads på metadata- og lagerserverne:

  • vm.dirty_background_ratio = 5 
  • vm.dirty_ratio = 20 
  • vm.min_free_kbytes = 262144 
  • vm.vfs_cache_pressure = 50
  • vm.zone_reclaim_mode = 2 
  • kernel.numa_balancing = 0

Ud over ovenstående blev følgende BeeGFS tuning muligheder brugt: 

  • tuneTargetChooser-parameteren blev indstillet til "roundrobin" i metadatakonfigurationsfilen 
  • tuneNumWorker-parameteren blev indstillet til 24 for metadata og 32 for lagring 
  • connMaxInternodeNum-parameteren blev indstillet til 32 for metadata og 12 for lagring og 24 for klienter

Sekventiel samlet filstørrelse på IOzone 8 TB
Figur 9:  Sekventiel samlet filstørrelse på IOzone 8 TB


I figur 9 ser vi, at maksimal læseydelse er 132 GB/s ved 1024 tråde, og spidsværdien er 121 GB/s ved 256 tråde. Hvert drev kan levere en maksimal læseydeevne på 3,2 GB/s og en maksimal skriveydeevne på 1,3 GB/s, hvilket giver mulighed for en teoretisk spidsbelastning på 422 GB/s for læsninger og 172 GB/s for skrivninger. Men her er netværket den begrænsende faktor. Vi har i alt 11 InfiniBand EDR links til storageserverne i opsætningen. Hvert link kan give en teoretisk topydelse på 12,4 GB/s, hvilket giver mulighed for en teoretisk topydelse på 136,4 GB/s. Den opnåede maksimale læse- og skriveydelse er henholdsvis 97% og 89% af den teoretiske topydelse.

Den enkelttrådede skriveydelse observeres at være ~3 GB/s og læses ved ~3 GB/s. Vi observerer, at skriveydelsen skaleres lineært, topper ved 256 tråde og derefter begynder at falde. Ved lavere trådantal er læse- og skriveydelsen den samme. Fordi indtil 8 tråde har vi 8 klienter, der skriver 8 filer på tværs af 24 mål, hvilket betyder, at ikke alle lagermål udnyttes fuldt ud. Vi har 33 storagemål i systemet, og derfor skal der mindst 11 tråde til for at udnytte alle serverne fuldt ud. Læseydelsen registrerer en støt lineær stigning med stigningen i antallet af samtidige tråde, og vi observerer næsten ens ydeevne ved 512 og 1024 tråde.

Vi bemærker også, at læseydelsen er lavere end skrivninger for trådtællinger fra 16 til 128, og derefter begynder læseydelsen at skalere. Dette skyldes, at mens en PCIe-læsehandling er en ikke-bogført handling, der kræver både en anmodning og en færdiggørelse, er en PCIe-skrivehandling en brand- og glemningshandling. Når transaktionslagpakken er overdraget til datalinklaget, fuldføres handlingen. En skrivehandling er en "Bogført" handling, der kun består af en anmodning.

Læsegennemstrømningen er typisk lavere end skrivegennemløbet, fordi læsninger kræver to transaktioner i stedet for en enkelt skrivning for den samme mængde data. PCI Express bruger en opdelt transaktionsmodel til læsninger. Læsetransaktionen omfatter følgende trin:

  • Anmoderen sender en MRR (Memory Read Request).
  • Fuldføreren sender bekræftelsen til MRR.
  • Fuldførelsen returnerer fuldførelsen med data.

Læsehastigheden afhænger af forsinkelsen mellem det tidspunkt, hvor læseanmodningen udsendes, og den tid, det tager for fuldførelsen at returnere dataene. Men når programmet udsteder et tilstrækkeligt antal læseanmodninger til at dække denne forsinkelse, maksimeres gennemløbet. Det er grunden til, at mens læseydelsen er mindre end skrivningerne fra 16 tråde til 128 tråde, måler vi en øget gennemstrømning, når antallet af anmodninger stiger.  Et lavere gennemløb måles, når anmoderen venter på færdiggørelse, før der sendes efterfølgende anmodninger. Et højere gennemløb registreres, når der udstedes flere anmodninger om at afskrive forsinkelsen efter de første datareturneringer.


Vilkårligt skriver og læser N-N

For at evaluere tilfældig IO-ydeevne blev IOzone brugt i tilfældig tilstand. Test blev udført på trådtællinger startende fra 4 tråde til op til 1024 tråde. Direkte IO-indstilling (-I) blev brugt til at køre IOzone, så alle operationer omgår buffercachen og går direkte til disken. BeeGFS stripe count på 3 og chunk størrelse på 2MB blev brugt. En 4KiB-anmodningsstørrelse bruges på IOzone. Ydeevne måles i I/O-handlinger pr. sekund (IOPS). OS-cacherne blev droppet mellem kørslerne på BeeGFS-serverne såvel som BeeGFS-klienterne. Kommandoen, der bruges til at udføre tilfældige skrivninger og læsninger, er angivet nedenfor:

Vilkårligt læser og skriver: iozone -i 2 -w -c -O -I -r 4K -s $Size -t $Thread -+n -+m /path/to/threadlist


Vilkårlig læse- og skriveydeevne ved brug af IOzone med en samlet filstørrelse på 8 TB
Figur 10:  Vilkårlig læse- og skriveydeevne ved hjælp af IOzone med en samlet filstørrelse

på 8 TB De vilkårlige skrivninger topper ved ~3,6 mio. IOPS ved 512 tråde, og de vilkårlige læsninger topper ved ~3,5 mio. IOPS ved 1024 tråde, som vist i figur 10. Både skrive- og læseydeevnen viser en højere ydeevne, når der er et større antal IO-anmodninger. Det skyldes, at NVMe-standarden understøtter op til 64K I/O-kø og op til 64K kommandoer pr. kø. Denne store pulje af NVMe-køer giver højere niveauer af I/O-parallelitet, og derfor observerer vi IOPS, der overstiger 3 millioner.


Konklusion og fremtidigt arbejde

Denne blog annoncerer udgivelsen af Dell EMC BeeGFS-storageløsningen med høj ydeevne og fremhæver dens ydeevneegenskaber. Løsningen har en maksimal sekventiel læse- og skriveydeevne på henholdsvis ~132 GB/s og ~121 GB/s, og de vilkårlige skrivninger topper ved ~3,6 millioner IOPS og vilkårlige læsninger ved ~3,5 millioner IOPS.

Denne blog er en del af "BeeGFS Storage Solution", som er designet med fokus på ridseplads med høj ydeevne. Hold øje med del 2 af blogserien, der beskriver, hvordan løsningen kan skaleres ved at øge antallet af servere for at øge ydeevnen og kapaciteten. Del 3 af blogserien vil diskutere yderligere funktioner i BeeGFS og vil fremhæve brugen af "StorageBench", det indbyggede benchmark for lagringsmål for BeeGFS.

Som en del af de næste trin udgiver vi en hvidbog senere med metadata-ydeevnen og N-trådene til 1-fil-IOR-ydeevnen og med yderligere detaljer om designovervejelser, finindstilling og konfiguration.


Referencer

[1] BeeGFS-dokumentation: 
https://www.beegfs.io/wiki/[2] Sådan forbindes to grænseflader på det samme undernet:  https://access.redhat.com/solutions/30564

対象製品

PowerSwitch S3048-ON, Mellanox SB7800 Series, PowerEdge R640, PowerEdge R740XD
文書のプロパティ
文書番号: 000130963
文書の種類: Solution
最終更新: 25 3月 2024
バージョン:  7
質問に対する他のDellユーザーからの回答を見つける
サポート サービス
お使いのデバイスがサポート サービスの対象かどうかを確認してください。