La soluzione di storage BeeGFS, progettata per fornire un file system scratch a prestazioni elevate, utilizza i seguenti componenti hardware:
Il server di gestione esegue il servizio di monitoraggio BeeGFS. Il server di metadati utilizza le 12 unità sulla zona NUMA 0 per ospitare le destinazioni di metadati (MDT), mentre le restanti 12 unità sulla zona NUMA 1 ospitano le destinazioni di storage (ST). Un server di metadati dedicato non viene utilizzato perché i requisiti di capacità di storage per i metadati BeeGFS sono molto piccoli. I metadati e le destinazioni di storage e i servizi sono isolati su nodi NUMA separati in modo da stabilire una notevole separazione dei carichi di lavoro. Gli storage server utilizzati nella configurazione dispongono di tre servizi di storage in esecuzione per zona NUMA, sei in totale per server. Per ulteriori informazioni, consulta il blog sull'annuncio. La Figura 1 mostra le due configurazioni di base che sono state testate e convalidate presso il Dell EMC HPC and AI Innovation Lab.
Figura 1. Configurazioni di base
La configurazione di piccole dimensioni è costituita da tre server R740xd. Ha un totale di 15 destinazioni di storage. La configurazione di medie dimensioni dispone di 6 server R740xd e dispone di un totale di 33 destinazioni di storage. L'utente può iniziare con una configurazione "Small" o con la configurazione "Medium" e può aggiungere server di storage o metadati in base alle esigenze per aumentare lo spazio di storage e le prestazioni complessive, oppure il numero di file e le prestazioni dei metadati, rispettivamente. La tabella 1 mostra i dati sulle prestazioni delle configurazioni di base che sono state testate e convalidate ampiamente presso il Dell EMC HPC and AI Innovation Lab.
Configurazione di base | Piccolo | Medio | |
---|---|---|---|
Totale U (MDS+SS) | 6U | 12U | |
N. di storage server dedicati | 2 | 5 | |
N. di unità NVMe per lo storage dei dati | 60 | 132 | |
Spazio utilizzabile stimato | 1,6 TB | 86 TiB | 190 TiB |
3,2 TB | 173 TiB | 380 TiB | |
6,4 TB | 346 TiB | 761 TiB | |
Lettura sequenziale di picco | 60,1 GB/s | 132,4 GB/s | |
Picco di scrittura sequenziale | 57,7 GB/s | 120,7 GB/s | |
Lettura casuale | 1,80 milioni di IOPS | 3,54 milioni di IOPS | |
Scrittura casuale | 1,84 milioni di IOPS | 3,59 milioni di IOPS |
Tabella 1. Dettagli su capacità e prestazioni delle configurazioni di base
Nella formula precedente, 0,99 è il fattore a cui è arrivato supponendo in modo conservativo che vi sia un overhead dell'1% dal file system. Per raggiungere il numero di unità per lo storage, sono incluse anche 12 unità dall'MDS. Ciò è dovuto al fatto che, nell'MDS, le 12 unità nella zona NUMA 0 vengono utilizzate per i metadati e le 12 unità nella zona 1 NUMA vengono utilizzate per lo storage. L'ultimo fattore nella formula 10^12/2^40 è quello di convertire lo spazio utilizzabile da TB a TiB.
Spazio utilizzabile BeeGFS in TiB= (dimensione 0,99* # unità* in TB * (10^12/2^40)
Configurazione | Piccolo | Piccolo +1 | Piccole +2 | Medio | Medio +1 | |
---|---|---|---|---|---|---|
Totale U (MDS+SS) | 6U | 8U | 10U | 12U | 14U | |
N. di storage server dedicati | 2 | 3 | 4 | 5 | 6 | |
N. di unità NVMe per lo storage dei dati | 60 | 84 | 108 | 132 | 156 | |
Spazio utilizzabile stimato | 1,6 TB | 86 TiB | 121 TiB | 156 TiB | 190 TiB | 225 TiB |
3,2 TB | 173 TiB | 242 TiB | 311 TiB | 380 TiB | 449 TiB | |
6,4 TB | 346 TiB | 484 TiB | 622 TiB | 761 TiB | 898 TiB | |
Lettura sequenziale di picco | 60,1 GB/s | 83,3 GB/s | 105,2 GB/s | 132,4 GB/s | 152,9 GB/s | |
Picco di scrittura sequenziale | 57,7 GB/s | 80,3 GB/s | 99,8 GB/s | 120,7 GB/s | 139,9 GB/s |
Tabella 2: dettagli su capacità e prestazioni delle configurazioni con scalabilità
Lo storage pool a cui si fa riferimento è stato creato solo per lo scopo esplicito di caratterizzare le prestazioni di configurazioni diverse. Durante la valutazione delle prestazioni della configurazione media descritta in dettaglio nel blog dell'annuncio, tutte le 33 destinazioni erano solo nel "pool predefinito". L'output del comando beegfs-ctl --liststoragepools riportato di seguito mostra l'assegnazione delle destinazioni di storage:
# beegfs-ctl --liststoragepools
Pool ID Pool Description Targets More Groups
======= ================== ============================ ============================
1 Default 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12,
13, 14, 15, 16, 17, 18, 19, 20, 21,
22, 23, 24, 25, 26, 27, 28, 29, 30,
31, 32, 33
[1] Dell EMC Ready Solutions for HPC BeeGFS Storage:
https://www.dell.com/support/article/sln319381/[2] Documentazione di BeeGFS:
https://www.beegfs.io/wiki/[3] Come connettere due interfacce sulla stessa subnet:
https://access.redhat.com/solutions/30564[4] Progettazione di riferimento per l'accesso alla memoria PCI Express Direct con memoria esterna: https://www.intel.com/content/www/us/en/programmable/documentation/nik1412547570040.html#nik1412547565760