Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Create and access a list of your products

Dell EMC-färdiga lösningar för lagring med höga prestanda med HPC BeeGFS

Summary: PowerEdge R740xd, PowerEdge R640, PowerSwitch S3048-ON, Mellanox SB7890, BeeGFS v7.1.3, HPC och AI Innovation Lab, HPC, BeeGFS lagringslösning med hög prestanda, IOzone, sekventiell läs- och skrivprestanda, slumpmässig läsning och skrivning ...

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Symptoms

Artikel skriven av Nirmala Sundararajan från Dell EMC HPC och AI Innovation Lab i november 2019

Cause

Dell EMC-färdiga lösningar för lagring med höga prestanda med HPC BeeGFS

Resolution

Innehållsförteckning

  1. Introduktion
  2. Lösningsreferensarkitektur
  3. Maskin- och programvarukonfiguration
  4. Information om lösningskonfiguration
  5. R740xd, 24x NVMe-enheter, information om CPU-mappning
  6. Karakterisering av prestanda
  7. Slutsats och framtida arbete
     

Introduktion

Dell EMC HPC-teamet tillkännager stolt lanseringen av "Dell EMC Ready Solutions for HPC BeeGFS Storage" som är det senaste tillskottet i HPC-lagringsportföljen. Den här lösningen använder R740xd-servrar, var och en med 24 × Intel P4600 1,6 TB NVMe, Express Flash-enheter med blandad användning och två Mellanox ConnectX-5 InfiniBand EDR-adaptrar. I denna 24 NVMe-enhetskonfiguration ansluts 12x NVMe SSD:er till en PCIe-switch, och varje switch är ansluten till en processor via ett x16 PCIe-extenderkort. Dessutom är varje IB-gränssnitt anslutet till en CPU. En sådan balanserad konfiguration med varje processor ansluten till en InfiniBand-adapter och hantering av 12 NVMe SSD-diskar ger maximal prestanda genom att säkerställa att processorerna är lika upptagna med att hantera I/O-förfrågningar till och från NVMe-enheterna.

Fokus för lösningen är högpresterande I/O och den har utformats som en snabb replösning.  Kärnan i lösningen är användningen av höghastighets NVMe SSD:er som erbjuder mycket hög bandbredd och låg latens genom att ta bort schemaläggaren och köa flaskhalsar från blocklagret. BeeGFS-filsystemet stöder också hög aggregerad I/O-genomströmning

Lösningsreferensarkitektur

Bild 1 visar lösningens referensarkitektur. Hanteringsservern är endast ansluten via Ethernet till metadata- och lagringsservrarna. Varje metadata- och lagringsserver har två InfiniBand-länkar och är ansluten till det privata nätverket via Ethernet. Klienterna har en InfiniBand-länk och är anslutna till det privata gränssnittet via Ethernet.
Dell EMC Ready Solutions för HPC BeeGFS-lagring – referensarkitektur
Figur 1:  Dell EMC Ready Solutions för HPC BeeGFS-lagring – referensarkitektur

Maskin- och programvarukonfiguration

I tabell 1 och 2 beskrivs maskinvaruspecifikationerna för hanteringsservern respektive metadata/lagringsservern. I tabell 3 beskrivs de programvaruversioner som används för lösningen.

 

Tabell 1: Konfiguration av PowerEdge R640 (hanteringsserver)
Server Dell EMC PowerEdge R640
Processor 2 × Intel Xeon Gold 5218 2,3 GHz, 16 kärnor
Minne 12 x 8 GB DDR4 2666MT/s DIMM – 96 GB
Lokala diskar 6 × 300 GB 2,5-tums SAS-hårddiskar på 15 000 v/min
RAID-styrenhet Integrerad PERC H740P RAID-styrenhet
Utanför band-hantering iDRAC9 Enterprise med Lifecycle Controller
Strömkällor Dubbla nätaggregat på 1 100 W
BIOS-version 2.2.11
Operativsystem CentOS™ 7.6
Kernel-version 3.10.0-957.27.2.el7.x86_64

 

Tabell 2: Konfiguration av PowerEdge R740xd (metadata och lagringsservrar)
Server Dell EMC PowerEdge R740xd
Processor 2x Intel Xeon Platinum 8268 CPU @ 2,90 GHz, 24 kärnor
Minne 12 x 32 GB DDR4 2933MT/s DIMM – 384 GB
BOSS-kort 2 × 240 GB M.2 SATA SSD-hårddiskar i RAID 1 för operativsystem
Lokala enheter 24 × Dell Express Flash NVMe P4600 1,6 TB 2,5-tums U.2
Mellanox EDR-kort 2 × Mellanox ConnectX-5 EDR-kort (kortplats 1 och 8)
Utanför band-hantering iDRAC9 Enterprise med Lifecycle Controller
Strömkällor Dubbla nätaggregat på 2 000 W

 

Tabell 3 Programvarukonfiguration (metadata och lagringsservrar)
BIOS 2.2.11
CPLD 1.1.3
Operativsystem CentOS™ 7.6
Kernel-version 3.10.0-957.el7.x86_64
iDRAC 3.34.34.34
Verktyg för systemhantering OpenManage Server Administrator 9.3.0-3407_A00
Mellanox OFED 4.5-1.0.1.0
NVMe SSD-hårddiskar QDV1DP13
* Intels ® datacenterverktyg  3.0.19
BeeGFS (på engelska) 7.1.3
Grafana 6.3.2
InfluxDB (på engelska) 1.7.7
Prestandatest för IOzone 3.487
*För hantering och uppdatering av inbyggd programvara för Intel P4600NVMe SSD-enheter

Information om lösningskonfiguration

BeeGFS-arkitekturen består av fyra huvudtjänster:
  • Hanteringstjänst
  • Metadatatjänst
  • Lagringstjänst
  • Kundtjänst
Med undantag för klienttjänsten, som är en kärnmodul, är hanterings-, metadata- och lagringstjänsterna processer i användarutrymme. Bild 2 illustrerar hur referensarkitekturen för Dell EMC Ready Solutions för HPC BeeGFS-lagring mappas till den allmänna arkitekturen för BeeGFS-filsystemet.
BeeGFS-filsystem på PowerEdge R740xd med NVMe SSD-enheter
Figur 2:  BeeGFS-filsystem på PowerEdge R740xd med NVMe SSD-enheter

Hanteringstjänst

Varje BeeGFS-filsystem eller namnrymd har bara en hanteringstjänst. Hanteringstjänsten är den första tjänsten som måste konfigureras eftersom när vi konfigurerar alla andra tjänster måste de registrera sig hos hanteringstjänsten.  En PowerEdge R640 används som hanteringsserver. Förutom att vara värd för hanteringstjänsten (beegfs-mgmtd.service) är den också värd för övervakningstjänsten (beegfs-mon.service) som samlar in statistik från systemet och tillhandahåller den till användaren med hjälp av tidsseriedatabasen InfluxDB. För visualisering av data tillhandahåller beegfs-mon fördefinierade Grafana-fönster som kan användas direkt. Hanteringsservern har 6 x 300 GB hårddiskar konfigurerade i RAID 10 för operativsystemet och InfluxDB.

Metadatatjänst

Metadatatjänsten är en skalbar tjänst, vilket innebär att det kan finnas många metadatatjänster i ett BeeGFS-filsystem. Varje metadatatjänst har dock exakt ett metadatamål för att lagra metadata.  På metadatamålet skapar BeeGFS en metadatafil per fil som skapats av användaren. BeeGFS-metadata distribueras per katalog. Metadatatjänsten tillhandahåller data striping-informationen till klienterna och är inte inblandad i dataåtkomsten mellan filen som öppnas/stängs.

A PowerEdge R740xd med 24x Intel P4600 1,6 TB NVMe, enheter används för metadatalagring. Eftersom kraven på lagringskapacitet för BeeGFS-metadata är mycket små, istället för att använda en dedikerad metadataserver, användes endast de 12 enheterna på NUMA-zon 0 för att vara värd för MetaData T-argeterna (MDT), medan de återstående 12 enheterna på NUMA-zonvärdens Storage T-argeter(STs).

Bild 3 visar metadataservern. De 12 enheter som omges av den gula rektangeln är MDT:er i NUMA-zon 0 medan de 12 enheter som omges av den gröna rektangeln är ST:er i NUMA-zon 1. Den här konfigurationen undviker inte bara NUMA-problem utan ger också tillräckligt med metadatalagring för att underlätta skalning av kapacitet och prestanda efter behov.

Metadataserver

Bild 3:  Metadataserver

Bild 4 visar RAID-konfigurationen för metadataservern. Den visar hur enheterna i NUMA-zon 0 är värdar för MDT:erna på metadataservern och de i NUMA-zon 1 är värdar för lagringsdata, medan lagringsservrarna är värdar för ST:erna i båda NUMA-zonerna.

Konfiguration av enheter på metadataservern

Bild 4:  Konfiguration av enheter på metadataservern

De 12 enheter som används för metadata är konfigurerade som 6x RAID 1-diskgrupp med två enheter som var och en fungerar som en MDT. Det finns 6 metadatatjänster som körs, som var och en hanterar en MDT. De återstående 12 lagringsenheterna är konfigurerade i 3x RAID 0-diskgrupper med 4 enheter vardera. Det finns tre lagringstjänster som körs i NUMA 1-zonen, en tjänst för varje ST. Servern som är värd för metadata och lagringsmålen har alltså 6 MDT:er och 3 ST:er. Den kör också 6 metadatatjänster och tre lagringstjänster. Varje MDT är ett ext4-filsystem baserat på en RAID 1-konfiguration. ST:erna baseras på XFS-filsystemet som konfigurerats i RAID 0.
 

Lagringstjänst

Precis som metadatatjänsten är lagringstjänsten också en skalbar tjänst. Det kan finnas många instanser av lagringstjänsten i ett BeeGFS-filsystem. Men till skillnad från metadatatjänsten kan det finnas flera lagringsmål per lagringstjänst.  Lagringstjänsten lagrar innehållet i de stripe-användarfilerna, även kallade datasegmentfiler

Bild 5 visar de 5x PowerEdge R740xd-servrar som används som lagringsservrar.
Dedikerade lagringsservrar
Figur 5:  Dedikerade lagringsservrar

Varje lagringsserver är konfigurerad med 6 × RAID 0-grupper, var och en av fyra enheter, och är därmed värd för 6 ST:er per server (3 per NUMA-zon), som visas i bild 6 nedan:

Konfiguration av enheter i lagringsservrarnaFigur 6:  Konfiguration av enheter på lagringsservrarna

Totalt är konfigurationen av basreferensarkitekturen värd för 6 MDT:er och 33 ST:er. Fem dedikerade lagringsservrar ger en rå kapacitet på 211 TB och en användbar kapacitet på 190 TiB. Den uppskattade användbara kapaciteten i TiB = Antal enheter x kapacitet per enhet i TB x 0,99 (filsystemkostnader) x (10^12/2^40). Detta skulle vara perfekt som en scratch-lösning på mellannivå med tillräckligt med metadatalagring för att göra det enkelt att lägga till fler lagringsservrar när kapacitetskraven ökar.

Med hänsyn till följande faktorer valdes en RAID 0-konfiguration för lagringsmål framför RAID 10-konfiguration.
  1. Skrivprestanda mättes med dd-kommandot genom att skapa en 10 GiB-fil med 1 MiB-blockstorlek och direkt I/O för data. För RAID 0-enheter var genomsnittet cirka 5,1 GB/s för varje enhet medan genomsnittet för RAID 10-enheter var 3,4 GB/s för varje enhet.
  2. StorageBench-prestandatest visade att maximal genomströmning var 5,5 Gbit/s för RAID 0-konfiguration medan den är 3,4 Gbit/s för en RAID 10-konfiguration. Dessa resultat liknar de som erhölls med dd-kommandon.
  3. RAID 10 ger 50 % utnyttjande av diskkapaciteten och en liknande 50 % minskning av skrivprestanda. Att använda RAID 10 är ett dyrt sätt att få lagringsredundans.
  4. NVMe-enheter är dyra och erbjuder högre hastigheter som bäst utnyttjas i en RAID 0-konfiguration
 

Kundtjänst

BeeGFS-klientmodulen måste läsas in på alla värdar som behöver åtkomst till BeeGFSs filsystem. När beegfs-client läses in kommer den att montera filsystemen som definieras i filen/etc/beegfs/beegfs-mounts.conf istället för den vanliga metoden baserad på /etc/fstab.  Om du använder den här metoden startas beegfs-client på samma sätt som andra Linux-tjänster via tjänstens startskript. Det möjliggör också automatisk omkompilering av BeeGFS-klientmodulen efter systemuppdateringar. 

När klientmodulen läses in kommer den att montera filsystemen som definieras i beegfs-mounts.conf. Det är möjligt att montera flera beegfs-instanser på samma klient enligt nedan:

$ cat /etc/beegfs/beegfs-mounts.conf
/mnt/beegfs-medium /etc/beegfs/beegfs-client-medium.conf
/mnt/beegfs-small /etc/beegfs/beegfs-client-small.conf

I exemplet ovan visas två olika filsystem som är monterade på samma klient. I den här testningen användes 32 x C6420-noder som klienter.

R740xd, 24x NVMe-enheter, information om CPU-mappning


I 24xNVMe-konfigurationen av PowerEdge R740xd-servern finns det två x16 NVMe-bryggkort som matar PCIe-switchen på bakplanet som fläktar ut och matar enheterna (enheterna är x4) på framsidan som visas i bild 7 nedan:


Information om processormappning för R740xd, 24x NVMeBild 7:  R740xd, 24x NVMe Information om CPU-mappning I NUMA-läget

(Non-Uniform Memory Access) är systemminnet indelat i zoner som kallas noder, som allokeras till processorer eller socklar. Åtkomst till minne som är lokalt för en processor är snabbare än minne som är anslutet till fjärrprocessorer i systemet. Ett trådat program fungerar vanligtvis bäst när trådarna har åtkomst till minne på samma NUMA-nod. Prestandapåverkan av NUMA-missar är betydande, vanligtvis från en prestandaträff på 10 % eller högre. För att förbättra prestanda konfigureras tjänsterna för att använda specifika NUMA-zoner för att undvika onödig användning av UPI-länkar med korssocklar och därmed minska svarstiden. Varje NUMA-zon hanterar 12 enheter och använder ett av de två InfiniBand EDR-gränssnitten på servrarna. Den här NUMA-separationen uppnås genom att manuellt konfigurera NUMA-balansering genom att skapa anpassade systemenhetsfiler och genom att konfigurera multihoming. Därför är den automatiska NUMA-balanseringen inaktiverad, som visas nedan:

# cat /proc/sys/kernel/numa_balancing
0

Figur 8 visar testbädden där InfiniBand-anslutningarna till NUMA-zonen är markerade.  Varje server har två IP-länkar och trafiken genom NUMA 0-zonen hanteras av gränssnitt IB0 medan trafiken genom NUMA 1-zonen hanteras av gränssnitt IB1.
Konfiguration av testbädd
Figur 8:  Konfiguration av testbädd
 

Karakterisering av prestanda

I det här avsnittet presenteras den prestandautvärdering som hjälper till att karakterisera Dell EMC Ready Solution för HPC BeeGFS-lagringslösningar med hög prestanda. Mer information och uppdateringar finns i ett white paper som kommer att publiceras senare. Systemets prestanda utvärderades med hjälp av IOzone-prestandatestet. Lösningen testas för sekventiellt läs- och skrivdataflöde och slumpmässig läs- och skriv-IOPS. Tabell 4 beskriver konfigurationen av de C6420-servrar som användes som BeeGFS-klienter för prestandastudierna som presenteras i den här bloggen.
 
Tabell 4 Klientkonfiguration
Klienter 32x Dell EMC PowerEdge C6420-beräkningsnoder
BIOS 2.2.9
Processor 2 x Intel Xeon Gold 6148-processor vid 2,40 GHz med 20 kärnor per processor
Minne  12 x 16 GB DDR4 2 666 MT/s DIMM – 192 GB
BOSS-kort 2 M.2-startenheter på 120 GB i RAID 1 för operativsystem
Operativsystem Red Hat Enterprise Linux Server version 7.6
Kernel-version 3.10.0-957.el7.x86_64
Interconnect 1 × Mellanox ConnectX-4 EDR-kort
OFED Version 4.5-1.0.1.0

Sekventiella skrivningar och läsningar N-N

För att utvärdera sekventiella läsningar och skrivningar användes IOzone-riktmärket i sekventiellt läs- och skrivläge. Dessa tester utfördes på flera trådantal som började med 1 tråd och ökade i styrkor på 2, upp till 1024 trådar. Vid varje trådantal genererades lika många filer eftersom det här testet fungerar på en fil per tråd eller N klienter till N-fil (N-N) ärendet. Processerna distribuerades över 32 fysiska klientnoder på ett resursallokerings- eller cykliskt sätt så att begärandena distribueras jämnt och det finns belastningsutjämning. En aggregerad filstorlek på 8 TB valdes som var jämnt fördelad mellan antalet trådar i ett visst test. Den aggregerade filstorleken valdes tillräckligt stor för att minimera effekterna av cachning från servrarna såväl som från BeeGFS-klienterna. IOzone kördes i ett kombinerat skrivläge och lästes sedan (-i 0, -i 1) så att den kunde koordinera gränserna mellan operationerna. För dessa tester och resultat använde vi en 1MiB-rekordstorlek för varje körning. Kommandona som används för sekventiella N-N-tester ges nedan:

Sekventiella skrivningar och läsningar: iozone -i 0 -i 1 -c -e -w -r 1m -I -s $Size -t $Thread -+n -+m /path/to/threadlist

OS-cacheminnen togs också bort eller rensades på klientnoderna mellan iterationer samt mellan skriv- och lästester genom att köra kommandot:

# sync && echo 3 > /proc/sys/vm/drop_caches

Standardantalet ränder för Beegfs är 4. Segmentstorleken och antalet mål per fil kan dock konfigureras per katalog. För alla dessa tester valdes BeeGFS-stripe-storleken till 2 MB och stripe-antalet till 3 eftersom vi har tre mål per NUMA-zon som visas nedan:

$ beegfs-ctl --getentryinfo --mount=/mnt/beegfs /mnt/beegfs/benchmark --verbose
EntryID: 0-5D9BA1BC-1
Överordnat ID: nod för rotmetadata
: node001-numa0-4 [ID: 4]
Stripe mönsterdetaljer:
+ Typ: RAID0
+-segmentstorlek: 2M
+ Antal lagringsmål: önskas:

3+ Lagringspool: 1 (Standard)
Inod-hashsökväg: 7/5E/0-5D9BA1BC-1

De genomskinliga enorma sidorna har inaktiverats och följande justeringsalternativ finns på metadata- och lagringsservrarna:

  • vm.dirty_background_ratio = 5 
  • vm.dirty_ratio = 20 
  • vm.min_free_kbytes = 262144 
  • vm.vfs_cache_pressure = 50
  • vm.zone_reclaim_mode = 2 
  • kernel.numa_balancing = 0

Utöver ovanstående användes följande BeeGFS-inställningsalternativ: 

  • Parametern tuneTargetChooser var inställd på "roundrobin" i metadatakonfigurationsfilen 
  • Parametern tuneNumWorkers var inställd på 24 för metadata och 32 för lagring 
  • connMaxInternodeNum-parametern var inställd på 32 för metadata och 12 för lagring och 24 för klienter

Sekventiell IOzone 8 TB aggregerad filstorlek
Bild 9:  Sekventiell IOzone 8 TB aggregerad filstorlek


I bild 9 ser vi att högsta läsprestanda är 132 GB/s vid 1 024 trådar och högsta skrivning är 121 GB/s vid 256 trådar. Varje enhet kan ge 3,2 GB/s högsta läsprestanda och 1,3 GB/s högsta skrivprestanda, vilket ger en teoretisk topp på 422 GB/s för läsning och 172 GB/s för skrivning. Här är dock nätverket den begränsande faktorn. Vi har totalt 11 InfiniBand EDR-länkar för lagringsservrarna i konfigurationen. Varje länk kan ge en teoretisk topprestanda på 12,4 GB/s, vilket ger en teoretisk topprestanda på 136,4 GB/s. Den uppnådda maximala läs- och skrivprestandan är 97 % respektive 89 % av den teoretiska topprestandan.

Skrivprestanda för enskild tråd observeras vara ~3 GB/s och läsas vid ~3 GB/s. Vi ser att skrivprestandan skalas linjärt, toppar på 256 trådar och sedan börjar minska. Vid lägre trådantal är läs- och skrivprestandan densamma. Fram till 8 trådar har vi 8 klienter som skriver 8 filer över 24 mål, vilket innebär att inte alla lagringsmål används fullt ut. Vi har 33 lagringsmål i systemet och därför behövs minst 11 trådar för att fullt ut utnyttja alla servrar. Läsprestandan registrerar en stadig linjär ökning med ökningen av antalet samtidiga trådar och vi observerar nästan liknande prestanda vid 512 och 1024 trådar.

Vi ser också att läsprestandan är lägre än skrivningar för trådantal från 16 till 128 och sedan börjar läsprestandan skalas. Det beror på att medan en PCIe-läsåtgärd är en icke-bokförd åtgärd, som kräver både en begäran och ett slutförande, är en PCIe-skrivåtgärd en fire and forget-åtgärd. När transaktionsskiktspaketet har överlämnats till datalänklagret slutförs åtgärden. En skrivåtgärd är en "bokförd" åtgärd som endast består av en begäran.

Läsdataflödet är vanligtvis lägre än skrivdataflödet eftersom läsningar kräver två transaktioner i stället för en enda skrivning för samma mängd data. PCI Express använder en delad transaktionsmodell för läsningar. Lästransaktionen innehåller följande steg:

  • Beställaren skickar en begäran om minnesläsning (MRR).
  • Slutföraren skickar ut bekräftelsen till MRR.
  • Slutföraren returnerar en Slutförande med data.

Läsdataflödet beror på fördröjningen mellan den tidpunkt då läsbegäran utfärdas och den tid det tar för slutföraren att returnera data. Men när programmet utfärdar tillräckligt många läsbegäranden för att täcka den här fördröjningen maximeras dataflödet. Det är anledningen till att även om läsprestandan är lägre än för skrivningar från 16 trådar till 128 trådar, mäter vi ett ökat dataflöde när antalet begäranden ökar.  Ett lägre dataflöde mäts när beställaren väntar på slutförande innan efterföljande begäranden utfärdas. Ett högre dataflöde registreras när flera begäranden utfärdas för att amortera fördröjningen efter att de första data returneras.


Slumpmässiga skrivningar och läsningar N-N

För att utvärdera slumpmässig IO-prestanda användes IOzone i slumpmässigt läge. Tester utfördes på trådantal från 4 trådar till upp till 1024 trådar. Direct IO-alternativet (-I) användes för att köra IOzone så att alla åtgärder kringgår buffertcachen och går direkt till disken. BeeGFS stripe count på 3 och chunk size på 2MB användes. En begärandestorlek på 4KiB används på IOzone. Prestanda mäts i I/O-åtgärder per sekund (IOPS). OS-cacheminnena togs bort mellan körningarna på BeeGFS-servrarna och BeeGFS-klienterna. Kommandot som används för att köra slumpmässiga skrivningar och läsningar anges nedan:

Slumpmässiga läsningar och skrivningar: iozone -i 2 -w -c -O -I -r 4K -s $Size -t $Thread -+n -+m /path/to/threadlist


Prestanda för slumpmässig läsning och skrivning med IOzone med en sammanlagd filstorlek på 8 TB
Bild 10:  Prestanda för slumpmässig läsning och skrivning med IOzone med en aggregerad filstorlek

på 8 TB De slumpmässiga skrivningarna toppar vid ~3,6 miljoner IOPS vid 512 trådar och de slumpmässiga läsningarna toppar vid ~3,5 miljoner IOPS vid 1024 trådar som visas i bild 10. Både skriv- och läsprestanda visar högre prestanda när det finns ett högre antal I/O-begäranden. Det beror på att NVMe-standarden stöder upp till 64K I/O-kö och upp till 64K kommandon per kö. Den här stora poolen med NVMe-köer ger högre nivåer av I/O-parallellitet och därför ser vi att IOPS överskrider 3 miljoner.


Slutsats och framtida arbete

I den här bloggen tillkännager vi lanseringen av Dell EMC High Performance BeeGFS-lagringslösningen och lyfter fram dess prestandaegenskaper. Lösningen har en högsta sekventiell läs- och skrivprestanda på ~132 GB/s respektive ~121 GB/s och slumpmässiga skrivningar toppar på ~3,6 miljoner IOPS och slumpmässiga läsningar på ~3,5 miljoner IOPS.

Den här bloggen är del ett av "BeeGFS Storage Solution" som har utformats med fokus på skraputrymme med hög prestanda. Håll ögonen öppna för del 2 i bloggserien som beskriver hur lösningen kan skalas genom att öka antalet servrar för att öka prestanda och kapacitet. Del 3 av bloggserien kommer att diskutera ytterligare funktioner i BeeGFS och kommer att belysa användningen av "StorageBench", det inbyggda riktmärket för lagringsmål för BeeGFS.

Som en del av nästa steg kommer vi att publicera ett informationsdokument senare med prestanda för metadata och N-trådar till 1-fil-IOR-prestanda och med ytterligare information om designöverväganden, justering och konfiguration.


Referenser

[1] BeeGFS-dokumentation: 
https://www.beegfs.io/wiki/[2] Så här ansluter du två gränssnitt i samma subnät:  https://access.redhat.com/solutions/30564

Affected Products

PowerSwitch S3048-ON, Mellanox SB7800 Series, PowerEdge R640, PowerEdge R740XD
Article Properties
Article Number: 000130963
Article Type: Solution
Last Modified: 25 Mar 2024
Version:  7
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.