Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Create and access a list of your products
  • Manage your Dell EMC sites, products, and product-level contacts using Company Administration.

Configuration des ensembles de clusters Microsoft sur Dell PowerEdge (en anglais)

Summary: Ensembles de clusters sous Windows Server 2019

This article may have been automatically translated. If you have any feedback regarding its quality, please let us know using the form at the bottom of this page.

Article Content


Symptoms

Les ensembles de clusters, introduits dans Windows Server 2019 (WS19), améliorent la flexibilité et la résilience du SDDC (Software Defined Data Center). Cluster Set est une technologie qui permet aux administrateurs de combiner plusieurs clusters Windows 2019 dans un seul et même ensemble de clusters.

Les clusters de basculement existants peuvent accueillir un maximum de 64 nœuds. La technologie Cluster Sets combine plusieurs clusters WS19 dans un seul domaine, chacun de ces clusters prenant en charge jusqu’à 64 nœuds WS19. Par rapport à un cluster de basculement, l’ensemble de clusters offre plus de résilience. Par exemple, un cluster de basculement à 4 nœuds peut résister à une défaillance à 2 nœuds. Avec le même cluster à 4 nœuds, si nous nous séparons en deux clusters à 2 nœuds et que nous formons un ensemble de clusters, il peut résister à une panne de cluster plus une défaillance de nœud à partir du cluster restant. Il peut donc résister à 3 défaillances de nœuds.

Pour obtenir une présentation de la fonctionnalité Cluster-Sets dans Server 2019, reportez-vous aux rubriques « Introduction-to-cluster-sets-in-windows-server-2019» et «Cluster sets». Les ensembles de clusters gagnent en flexibilité grâce à l’utilisation d’une technologie sous-jacente appelée Infrastructure Scale-Out File Server. Cela facilite également la migration entre les clusters des machines virtuelles au sein de l’ensemble de clusters.

Configuration de l’exercice pratique pour le déploiement d’un ensemble de clusters sur PowerEdge

Serveurs utilisés : Deux serveurs PowerEdge R730XD et deux serveurs PowerEdge R740XD

Création du premier cluster à l’aide des deux R730XD et nom de S2D13G54 (appelé Cluster membre 1).

Création du deuxième cluster à l’aide des deux R740XD et nom de S2D14G54 (appelé Cluster membre 2).

Création de deux volumes CSV sur chacun des clusters créés ci-dessus.

Création d’une machine virtuelle « vm1 » sur le cluster membre 1 et d’une machine virtuelle « vm2 » sur le cluster membre 2. Ensuite, j’ai combiné ces deux machines virtuelles pour créer un cluster de gestion (nommé mgClus54) pour l’ensemble de clusters. No le stockage partagé est requis lors de la création du cluster de gestion.

Installation du rôle File-Services dans chacun des nœuds du cluster membre 1, du cluster membre 2 et du cluster de gestion :

Install-WindowsFeature File-Services -IncludeAllSubFeature –IncludeManagementTools –Restart

Création d’un serveur de fichiers SOFS d’infrastructure sur le cluster membre 1, le cluster membre 2 et le cluster de gestion :

Add-ClusterScaleOutFileServerRole : nom <de l’infrastructure SOFS> -Infrastructure

 

SLN316252_en_US__1image (8815)

Création d’un ensemble de clusters nommé CLUSSET54 :

New-ClusterSet -Name CLUSSET54 -NamespaceRoot <Management Cluster SOFS Name> -CimSession <CIM session to Management Cluster>

 

Ajoutez ensuite le S2D14G54 créé et le cluster S2D13G54 au cluster dans ClusterSet :

Add-ClusterSetMember -ClusterName S2D14G54 -Cim Session <to ClusterSet> -InfraSOFSName <Name of SOFS created on S2D14G54 cluster>

 

Add-ClusterSetMember -ClusterName S2D13G54 -Cim <Session to ClusterSet> -InfraSOFSName <Name of SOFS created on S2D13G54 cluster>


SLN316252_en_US__2image (8816)
 

 SLN316252_en_US__3image (8818)

 

Ensuite, je déploie deux machines virtuelles V213G et V214G sur le cluster membre 1 et le cluster membre 2, respectivement, et j’enregistre les machines virtuelles sur l’ensemble de clusters :

Get-ClusterSetMember - Nom du cluster ClusterName <> | Register-ClusterSetVM -VMName <VM Name>

 
Pour tester la migration dynamique entre les clusters, j’ai essayé de migrer la machine virtuelle « V213G » vers le cluster membre 2. Avant d’effectuer la migration entre les clusters, nous devons prendre en compte les points ci-dessous :

    1. Les paramètres de la machine virtuelle, compatibilité du processeur doivent être activés.
    2. Configurer la délégation limitée Kerberos (KCD) entre toutes les paires de nœuds inter-cluster
      1. Les conseils de délégation limités de l’équipe produit Microsoft Hyper-V seront utiles pour la configuration.
      2. Configurez le type d’authentification Live Migration de la machine virtuelle multi-cluster vers Kerberos sur chaque nœud de l’ensemble de clusters.

foreach($h dans $hosts){Set-VMHost -VirtualMachineMigrationAuthenticationType Kerberos -computerName $h }

      1. Ajoutez le cluster de gestion au groupe d’administrateurs locaux sur chaque nœud de l’ensemble de clusters.

foreach($h dans $hosts){ Invoke-Command -ComputerName $h -ScriptBlock {Net localgroup administrators /add <management_cluster_name>$} }

SLN316252_en_US__4image (8819)

 

Pour effectuer toute activité de maintenance d’un cluster dans l’ensemble de clusters, migrez toutes les machines virtuelles qui font partie du cluster vers d’autres clusters de l’ensemble de clusters, puis supprimez le cluster de l’ensemble de clusters :

 

Remove-ClusterSetMember -ClusterName <ClusterName> -CimSession <Session created for ClusterSet>

 

Après avoir effectué l’activité de maintenance, ajoutez à nouveau le cluster à l’ensemble de clusters.

 

En cas de défaillance inattendue d’un cluster membre, l’ensemble de clusters n’est pas suffisamment intelligent pour gérer le basculement. Seul le déplacement manuel des ressources d’un cluster à un autre est pris en charge dans Windows Server 2019 ; même si unbasculement automatique de machine virtuelle continue de fonctionner dans un périmètre de cluster membre unique.

 

 

 

 

 

 

 

 

 

 

 


Ce blog a été rédigé par l’ingénieur DELL Nithya Priya

Cause

Les clusters de basculement existants peuvent accueillir un maximum de 64 nœuds. La technologie Cluster Sets combine plusieurs clusters WS19 dans un seul domaine, chacun de ces clusters prenant en charge jusqu’à 64 nœuds WS19. Par rapport à un cluster de basculement, l’ensemble de clusters offre plus de résilience. Par exemple, un cluster de basculement à 4 nœuds peut résister à une défaillance à 2 nœuds. Avec le même cluster à 4 nœuds, si nous nous séparons en deux clusters à 2 nœuds et que nous formons un ensemble de clusters, il peut résister à une panne de cluster plus une défaillance de nœud à partir du cluster restant. Il peut donc résister à 3 défaillances de nœuds.

Resolution

Après avoir effectué l’activité de maintenance, ajoutez à nouveau le cluster à l’ensemble de clusters.

 

En cas de défaillance inattendue d’un cluster membre, l’ensemble de clusters n’est pas suffisamment intelligent pour gérer le basculement. Seul le déplacement manuel des ressources d’un cluster vers un autre est pris en charge dans Windows Server 2019. même si le basculement automatique des machines virtuelles continue de fonctionner dans un périmètre de cluster membre unique.

Article Properties


Affected Product

PowerEdge, Microsoft Windows Server 2019

Last Published Date

04 Oct 2023

Version

4

Article Type

Solution