La solution de stockage BeeGFS, conçue pour fournir un système de fichiers de travail hautes performances, utilise les composants matériels suivants :
Le serveur de gestion exécute le service de surveillance BeeGFS. Le serveur de métadonnées utilise les 12 disques de la zone NUMA 0 pour héberger les cibles de métadonnées (MDT), tandis que les 12 disques restants sur la zone NUMA 1 hébergent les cibles de stockage (ST). Un serveur de métadonnées dédié n’est pas utilisé, car les exigences de capacité de stockage pour les métadonnées BeeGFS sont très petites. Les métadonnées et les services et cibles de stockage sont isolés sur des nœuds NUMA distincts afin d’établir une séparation considérable des charges applicatives. Les serveurs de stockage utilisés dans la configuration disposent de trois services de stockage s’exécutant par zone NUMA, six au total par serveur. Pour plus d’informations, reportez-vous au blog d’annonce. La Figure 1 présente les deux configurations de base qui ont été testées et validées dans le laboratoire d’innovation en matière d’IA et HPC de Dell EMC.
Figure 1 : Base Configurations
La petite configuration se compose de trois serveurs R740xd. Il a un total de 15 cibles de stockage. La configuration moyenne comporte 6 serveurs R740xd et dispose d’un total de 33 cibles de stockage. L’utilisateur peut commencer par une configuration « petite » ou « moyenne » et peut ajouter des serveurs de stockage ou de métadonnées en fonction des besoins pour augmenter l’espace de stockage et les performances globales, ou le nombre de performances de fichiers et de métadonnées, respectivement. Le Tableau 1 présente les données de performances des configurations de base qui ont été testées et validées de manière approfondie dans le laboratoire d’innovation en matière d’IA et HPC de Dell EMC.
Base Configuration | Petit | Moyen | |
---|---|---|---|
Total U (MDS +SS) | 6U | 12U | |
Nombre de serveurs de stockage dédiés | 2 | 5 | |
Nombre de disques NVMe pour le stockage des données | 60 | 132 | |
Espace utile estimé | 1,6 To | 86 Tio | 190 Tio |
3,2 To | 173 Tio | 380 Tio | |
6,4 To | 346 Tio | 761 Tio | |
Lecture séquentielle maximale | 60,1 Go/s | 132,4 Go/s | |
Écriture séquentielle maximale | 57,7 Go/s | 120,7 Go/s | |
Lecture aléatoire | 1,80 million d’E/S par seconde | 3,54 millions d’E/S par seconde | |
Écriture aléatoire | 1,84 million d’E/S par seconde | 3,59 millions d’E/S par seconde |
Tableau 1 : Détails sur la capacité et les performances des configurations de base
Dans la formule ci-dessus, 0,99 est le facteur pris en compte en supposant de manière prudente qu’il y a un temps système supplémentaire de 1 % à partir du système de fichiers. Pour obtenir le nombre de disques pour le stockage, 12 disques du MDS sont également inclus. Cela est dû au fait que, dans le MDS, les 12 disques de la zone NUMA 0 sont utilisés pour les métadonnées et les 12 disques de la zone NUMA 1 sont utilisés pour le stockage. Le dernier facteur de la formule 10^12/2^40 consiste à convertir l’espace utile de To en Tio.
Espace utile BeeGFS en Tio= (0,99* nombre de disques* taille en To * (10^12/2^40)
Configuration | Petit | Petit +1 | Petit +2 | Moyen | Moyenne +1 | |
---|---|---|---|---|---|---|
Total U (MDS +SS) | 6U | 8U | 10U | 12U | 14U | |
Nombre de serveurs de stockage dédiés | 2 | 3 | 4 | 5 | 6 | |
Nombre de disques NVMe pour le stockage des données | 60 | 84 | 108 | 132 | 156 | |
Espace utile estimé | 1,6 To | 86 Tio | 121 Tio | 156 Tio | 190 Tio | 225 Tio |
3,2 To | 173 Tio | 242 Tio | 311 Tio | 380 Tio | 449 Tio | |
6,4 To | 346 Tio | 484 Tio | 622 Tio | 761 Tio | 898 Tio | |
Lecture séquentielle maximale | 60,1 Go/s | 83,3 Go/s | 105,2 Go/s | 132,4 Go/s | 152,9 Go/s | |
Écriture séquentielle maximale | 57,7 Go/s | 80,3 Go/s | 99,8 Go/s | 120,7 Go/s | 139,9 Go/s |
Tableau 2 : Détails de la capacité et des performances des configurations à l’échelle
Le pool de stockage désigné a été créé uniquement dans le but explicite de caractériser les performances des différentes configurations. Lors de l’évaluation des performances de la configuration moyenne détaillée dans le blog d’annonce, toutes les 33 cibles se trouvaient dans le « pool par défaut » uniquement. La sortie de la commande beegfs-ctl --liststoragepools indiquée ci-dessous montre l’attribution des cibles de stockage :
# beegfs-ctl --liststoragepools
Pool ID Pool Description Targets Buddy Groups
======= ================== ============================ ============================
1 Default 1,2,3,4,5,6,7,8,9,10,11,12,
13,14,15,16,17,18,19,20,21,
22,23,24,25,26,27,28,29,30,
31,32,33
[1] Solutions Dell EMC Ready pour le stockage HPC BeeGFS :
https://www.dell.com/support/article/sln319381/[2] Documentation BeeGFS :
https://www.beegfs.io/wiki/[3] Comment connecter deux interfaces sur le même sous-réseau :
https://access.redhat.com/solutions/30564[4] Conception de référence de l’accès à la mémoire directe PCI Express à l’aide de la mémoire externe : https://www.intel.com/content/www/us/en/programmable/documentation/nik1412547570040.html#nik1412547565760