Рішення BeeGFS Storage Solution, призначене для забезпечення високопродуктивної файлової системи Scratch, використовує такі апаратні компоненти:
На сервері управління працює служба моніторингу BeeGFS. Сервер метаданих використовує 12 дисків у зоні NUMA 0 для розміщення цільових метаданих (MDT), тоді як решта 12 дисків у зоні NUMA 1 розміщують цілі зберігання (ST). Виділений сервер метаданих не використовується, оскільки вимоги до ємності сховища для метаданих BeeGFS дуже малі. Метадані та об'єкти зберігання та сервіси ізольовані на окремих вузлах NUMA, що дозволяє встановити значний поділ робочих навантажень. Сервери зберігання, які використовуються в конфігурації, мають три служби зберігання, запущені на кожну зону NUMA, загалом по шість на сервер. Для отримання більш детальної інформації, будь ласка, зверніться до блогу анонсів. На малюнку 1 показані дві базові конфігурації, які були протестовані та перевірені в лабораторії Dell EMC HPC та AI Innovation Lab.
Малюнок 1: Базові конфігурації
Невелика конфігурація складається з трьох серверів R740xd. Загалом він має 15 об'єктів зберігання. Середня конфігурація має сервери 6xR740xd і загалом має 33 цілі зберігання. Користувач може почати з «Маленької» конфігурації або з «Середньої» конфігурації і може додати сховище або сервери метаданих, якщо це необхідно, щоб збільшити простір для зберігання та загальну продуктивність, або кількість файлів та продуктивність метаданих відповідно. У таблиці 1 наведено дані про продуктивність базових конфігурацій, які були ретельно протестовані та перевірені в лабораторії Dell EMC HPC та AI Innovation Lab.
Базова конфігурація | Малий | Середнє | |
---|---|---|---|
Всього U (MDS+SS) | 6U | 12U | |
# виділених серверів зберігання даних | 2 | 5 | |
# NVMe дисків для зберігання даних | 60 | 132 | |
Приблизний корисний простір | 1,6 ТБ | 86 TiB | 190 ТиБ |
3,2 ТБ | 173 TiB | 380 TiB | |
6,4 ТБ | 346 TiB | 761 TiB | |
Пікове послідовне читання | 60,1 ГБ/с | 132,4 ГБ/с | |
Піковий послідовний запис | 57,7 ГБ/с | 120,7 ГБ/с | |
Випадкове читання | 1,80 мільйона IOPS | 3,54 мільйона IOPS | |
Випадковий запис | 1,84 мільйона IOPS | 3,59 мільйона IOPS |
Таблиця 1: Подробиці про місткість і продуктивність базових конфігурацій
У наведеній вище формулі 0,99 є коефіцієнтом, отриманим консервативним припущенням, що накладні витрати на файлову систему становлять 1%. Для визначення кількості накопичувачів для зберігання також включено 12 накопичувачів від MDS. Це пов'язано з тим, що в MDS 12 дисків у зоні NUMA 0 використовуються для метаданих, а 12 дисків у зоні NUMA 1 використовуються для зберігання. Останнім фактором у формулі 10^12/2^40 є перетворення корисного простору з TB в TiB.
Корисний простір BeeGFS в TiB= (0.99* # дисків* розмір в ТБ * (10^12/2^40)
Конфігурації | Малий | Малий +1 | Малий +2 | Середнє | Середній +1 | |
---|---|---|---|---|---|---|
Всього U (MDS+SS) | 6U | 8U | 10U | 12U | 14U | |
# виділених серверів зберігання даних | 2 | 3 | 4 | 5 | 6 | |
# NVMe дисків для зберігання даних | 60 | 84 | 108 | 132 | 156 | |
Приблизний корисний простір | 1,6 ТБ | 86 TiB | 121 TiB | 156 TiB | 190 ТиБ | 225 TiB |
3,2 ТБ | 173 TiB | 242 TiB | 311 TiB | 380 TiB | 449 TiB | |
6,4 ТБ | 346 TiB | 484 TiB | 622 TiB | 761 TiB | 898 TiB | |
Пікове послідовне читання | 60,1 ГБ/с | 83,3 ГБ/с | 105,2 ГБ/с | 132,4 ГБ/с | 152,9 ГБ/с | |
Піковий послідовний запис | 57,7 ГБ/с | 80,3 ГБ/с | 99,8 ГБ/с | 120,7 ГБ/с | 139,9 ГБ/с |
Таблиця 2: Деталі потужності та продуктивності масштабованих конфігурацій
Згадані сховища були створені лише з явною метою охарактеризувати продуктивність різних конфігурацій. Під час оцінки продуктивності середньої конфігурації, детально описаної в блозі оголошень, усі 33 цілі були лише в «Пулі за замовчуванням». Виведені нижче дані команди beegfs-ctl --liststoragepools показують призначення цілей сховища:
# beegfs-ctl --liststoragepools
Ідентифікатор пулу Опис пулу націлений на групи
друзів======= ================== ============================ ============================
1 Типове значення 1,2,3,4,5,6,7,8,9,10,11,12,
13,14,15,16,17,18,19,20,21, 22,23,24,25,26,27,28,29,30, 31,32,33
[1] Готові рішення Dell EMC для зберігання HPC BeeGFS:
https://www.dell.com/support/article/sln319381/[2] Документація BeeGFS:
https://www.beegfs.io/wiki/[3] Як з'єднати два інтерфейси в одній підмережі:
https://access.redhat.com/solutions/30564[4] Еталонна конструкція прямого доступу до пам'яті PCI Express із використанням зовнішньої пам'яті: https://www.intel.com/content/www/us/en/programmable/documentation/nik1412547570040.html#nik1412547565760