Решение для хранения данных BeeGFS, предназначенное для высокопроизводительной файловой системы, использует следующие аппаратные компоненты:
На сервере управления работает служба мониторинга BeeGFS. Сервер метаданных использует 12 накопителей в зоне NUMA 0 для хостов целевых метаданных (MDTS), а остальные 12 дисков в зоне NUMA 1 размещают целевые системы хранения данных (STS). Выделенный сервер метаданных не используется, так как требования к емкости хранилища для метаданных BeeGFS очень малы. Целевые данные и сервисы метаданных и хранилища изолированы на отдельных узлах NUMA, чтобы было установлено значительное разделение рабочих нагрузок. Серверы хранения данных, используемые в конфигурации, имеют три службы хранения данных, работающие на одну зону NUMA, в общей сложности шесть на сервер. Дополнительные сведения см. в блоге с объявлением о выходе. На рис. 1 показаны две базовые конфигурации, которые были протестированы и валидированы в лаборатории Dell EMC HPC and AI Innovation Lab.
Рис. 1. Базовые конфигурации
Небольшая конфигурация состоит из трех серверов R740xd. Оно содержит в общей сложности 15 целевых систем хранения. Средняя конфигурация содержит 6 серверов R740xd и в общей сложности 33 целевых ресурса хранения. Пользователь может начать с конфигурации «Small» или «Medium» и при необходимости добавить серверы хранения или метаданных, чтобы увеличить пространство для хранения данных и общую производительность, а также увеличить производительность файлов и метаданных соответственно. В табл. 1 показаны данные о производительности базовых конфигураций, которые были тщательно протестированы и валидированы в лаборатории Dell EMC HPC and AI Innovation Lab.
Базовая конфигурация | Маленький | Medium | |
---|---|---|---|
Всего U (MDS+SS) | 6U | 12U | |
Количество выделенных серверов хранения данных | 2. | 5. | |
Количество накопителей NVMe для хранения данных | 60 | 132 | |
Расчетное полезное пространство | 1,6 TB | 86 ТиБ | 190 ТиБ |
3,2 Тбайт | 173 ТиБ | 380 ТиБ | |
6,4 Тбайт | 346 ТиБ | 761 ТиБ | |
Последовательное чтение пикового значения | 60,1 Гбайт/с | 132,4 Гбайт/с | |
Пиковая последовательная запись | 57,7 Гбайт/с | 120,7 Гбайт/с | |
Произвольное чтение | 1,8 млн IOPS | 3,54 млн IOPS | |
Случайная запись | 1,84 млн IOPS | 3,59 млн IOPS |
Таблица 1. Сведения о емкости и производительности базовых конфигураций
В приведенной выше формуле 0,99 — это фактор, на который на 1% меньше издержки файловой системы. Для получения информации о количестве накопителей для хранения также включены 12 накопителей из MDS. Это потому, что в MDS 12 накопителей в зоне NUMA 0 используются для метаданных, а 12 накопителей в зоне NUMA 1 используются для хранения. Последний фактор в формуле 10^12/2^40 — преобразование полезного пространства из терабайта в ТиБ.
Полезное пространство BeeGFS в ТиБ= (0,99* количество накопителей* в Тбайт* (10^12/2^40)
Настройка | Маленький | Компактная конфигурация +1 | Компактная конфигурация +2 | Medium | Средний +1 | |
---|---|---|---|---|---|---|
Всего U (MDS+SS) | 6U | 8U | 10U | 12U | 14U | |
Количество выделенных серверов хранения данных | 2. | 3. | 4 | 5. | 6 | |
Количество накопителей NVMe для хранения данных | 60 | 84 | 108 | 132 | 156 | |
Расчетное полезное пространство | 1,6 TB | 86 ТиБ | 121 ТиБ | 156 ТиБ | 190 ТиБ | 225 ТиБ |
3,2 Тбайт | 173 ТиБ | 242 ТиБ | 311 ТиБ | 380 ТиБ | 449 ТиБ | |
6,4 Тбайт | 346 ТиБ | 484 ТиБ | 622 ТиБ | 761 ТиБ | 898 ТиБ | |
Последовательное чтение пикового значения | 60,1 Гбайт/с | 83,3 Гбайт/с | 105,2 Гбайт/с | 132,4 Гбайт/с | 152,9 Гбайт/с | |
Пиковая последовательная запись | 57,7 Гбайт/с | 80,3 Гбайт/с | 99,8 Гбайт/с | 120,7 Гбайт/с | 139,9 Гбайт/с |
Таблица 2. Сведения о емкости и производительности в масштабируемых конфигурациях
Пул хранения данных, упомянутый здесь, был создан только с явной целью характеристики производительности различных конфигураций. При оценке производительности средней конфигурации, подробно описанной в блоге с объявлением о выходе, все 33 цели были только в пуле по умолчанию. В выходных данных команды beegfs-ctl --liststoragepools, приведенной ниже, показано назначение целевых ресурсов хранения:
# beegfs-ctl --liststoragepools Pool ID Pool Description Targets /Targets
/1======= ================== ============================ ============================
Default
1,2,3,4,5,6,7,8,9,10,11,12
по умолчанию 13, 14, 15, 16, 17, 18, 19, 20, 21,
22, 23, 24, 25, 26, 27, 28, 29,30,
31, 32, 333
[1] Готовые решения Dell EMC для хранилищ НРС BeeGFS:
https://www.dell.com/support/article/sln319381/[2] Документация по BeeGFS:
https://www.beegfs.io/wiki/[3] Как подключить два интерфейса в одной подсети:
https://access.redhat.com/solutions/30564[4] Эталонный дизайн доступа к памяти PCI Express Direct с использованием внешней памяти: https://www.intel.com/content/www/us/en/programmable/documentation/nik1412547570040.html#nik1412547565760