BeeGFS Storage Solution, som er designet til at levere et højtydende filsystem, bruger følgende hardwarekomponenter:
Administrationsserveren kører BeeGFS-overvågningstjeneste. Metadataserveren anvender de 12 drev på NUMA 0-zonen til at hoste MetaData Targets (MDT'er), mens de resterende 12 drev på NUMA 1-zonen er vært for Storage Targets (ST'er). En dedikeret metadataserver bruges ikke, fordi kravene til lagerkapacitet for BeeGFS-metadata er meget små. Metadata og storagemål og -tjenester er isoleret på separate NUMA-knuder, så der oprettes en betydelig adskillelse af arbejdsbelastninger. De storageservere, der anvendes i konfigurationen, har tre storageservices, der kører pr. NUMA-zone, seks i alt pr. server. Du kan finde flere oplysninger i annonceringsblogen. Figur 1 viser de to grundlæggende konfigurationer, der er testet og godkendt på Dell EMC HPC og AI Innovation Lab.
Figur 1: Grundlæggende konfigurationer
Den lille konfiguration består af tre R740xd-servere. Den har i alt 15 storage-mål. Mediekonfigurationen har 6xR740xd-servere og har i alt 33 storagemål. Brugeren kan starte med en "lille" konfiguration eller med konfigurationen "Mellem" og kan tilføje lagrings- eller metadataservere efter behov for at øge lagerpladsen og den samlede ydeevne eller antallet af filer og metadata- ydeevne. Tabel 1 viser ydeevnedata for de grundlæggende konfigurationer, der er blevet testet og valideret grundigt på Dell EMC HPC og AI Innovation Lab.
Grundlæggende konfiguration | Lille | Mellem | |
---|---|---|---|
I alt U (MDS+SS) | 6U | 12U | |
Antal dedikerede storageservere | 2 | 5 | |
Antal NVMe-drev til datastorage | 60 | 132 | |
Estimeret brugbar plads | 1,6 TB | 86 tiB | 190 tiB |
3,2 TB | 173 tiB | 380 TiB | |
6,4 TB | 346 tiB | 761 tiB | |
Maks. sekventiel læsning | 60,1 GB/s | 132,4 GB/s | |
Maks. sekventiel skrivning | 57,7 GB/s | 120,7 GB/s | |
Tilfældig læsning | 1,80 millioner IOPS | 3,54 millioner IOPS | |
Vilkårlig skrivning | 1,84 millioner IOPS | 3,59 millioner IOPS |
Tabel 1: Oplysninger om kapacitet og ydelse for basiskonfigurationer
I ovenstående formel er 0,99 faktoren modtaget ved at antage, at der er en 1 % belastning fra filsystemet. Ved ankomsten til det antal drev, der skal opbevares, medfølger der også 12 drev fra MDS. Dette skyldes, at i MDS bruges de 12 drev i NUMA-zone 0 til metadata, og de 12 drev i NUMA-zone 1 bruges til lagring. Den sidste faktor i formel 10^12/2^40 er at konvertere den brugbare plads fra TB til TiB.
BeeGFS, brugbar plads i TiB= (0,99* antal drev* størrelse i TB * (10^12/2^40)
Konfiguration | Lille | Lille +1 | Lille +2 | Mellem | Mellem +1 | |
---|---|---|---|---|---|---|
I alt U (MDS+SS) | 6U | 8U | 10U | 12U | 14U | |
Antal dedikerede storageservere | 2 | 3 | 4 | 5 | 6 | |
Antal NVMe-drev til datastorage | 60 | 84 | 108 | 132 | 156 | |
Estimeret brugbar plads | 1,6 TB | 86 tiB | 121 tiB | 156 tiB | 190 tiB | 225 TiB |
3,2 TB | 173 tiB | 242 TiB | 311 tiB | 380 TiB | 449 tiB | |
6,4 TB | 346 tiB | 484 tiB | 622 TiB | 761 tiB | 898 TiB | |
Maks. sekventiel læsning | 60,1 GB/s | 83,3 GB/s | 105,2 GB/s | 132,4 GB/s | 152,9 GB/s | |
Maks. sekventiel skrivning | 57,7 GB/s | 80,3 GB/s | 99,8 GB/s | 120,7 GB/s | 139,9 GB/s |
Tabel 2: Oplysninger om kapacitet og ydeevne for skalerede konfigurationer
Den nævnte lagerpulje blev kun oprettet med det eksplicitte formål at karakterisere ydeevnen for forskellige konfigurationer. Mens du udfører ydelsesevalueringen af den mediekonfiguration, der er beskrevet i annonceringsblogen, var alle de 33 mål kun i "Standardpuljen". Outputtet fra kommandoen beegfs-ctl --liststoragepools, der er angivet nedenfor, viser tildelingen af lagringsdestinationerne:
# beegfs-ctl --liststoragepools
Pulje-ID-gruppebeskrivelse Mål for samtidsgrupper
======= ================== ============================ ============================
1 Standard 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12,
13, 14, 15, 16, 17, 18, 19, 20, 21,
22, 23, 24, 25, 26, 27, 28, 29, 30,
31, 32, 33
[1] Dell EMC Ready Solutions til HPC BeeGFS-lagring:
https://www.dell.com/support/article/sln319381/[2] BeeGFS-dokumentation:
https://www.beegfs.io/wiki/[3] Sådan forbindes to grænseflader på samme undernet:
https://access.redhat.com/solutions/30564[4] PCI Express Direct Memory Access Reference Design ved hjælp af ekstern hukommelse: https://www.intel.com/content/www/us/en/programmable/documentation/nik1412547570040.html#nik1412547565760