메인 콘텐츠로 이동
  • 빠르고 간편하게 주문
  • 주문 보기 및 배송 상태 추적
  • 제품 목록을 생성 및 액세스
  • 회사 관리를 사용하여 Dell EMC 사이트, 제품 및 제품 수준 연락처를 관리하십시오.

Como configurar o RDMA convidado no Windows Server

요약: Este artigo explica como configurar o RDMA convidado no Windows Server.

이 문서는 자동으로 번역되었을 수 있습니다. 번역 품질에 대한 의견이 있는 경우 페이지 하단의 양식을 사용해 알려 주시기 바랍니다.

문서 콘텐츠


지침

Sumário

  1. Introdução ao RDMA (Remote Direct Memory Access, Acesso Remoto Direto à Memória)

  2. Ambiente de laboratório

  3. Configuração de hardware

  4. Como configurar o RDMA convidado

  5. Powershell Cmdlets

  6. Links para download


1. Introdução ao RDMA (Remote Direct Memory Access, Acesso Remoto Direto à Memória)

Remote Direct Memory Access (RDMA) é uma excelente tecnologia que permite que os computadores transfiram dados em toda a rede sem incluir recursos da CPU nem do SO dos hosts envolvidos (computação/armazenamento), aprimorando o throughput e o desempenho e reduzindo a latência e a sobrecarga da CPU.

No momento, há duas implementações comuns do RDMA:

RoCE
— transmissão: UDP/IP (RoCE v2)
— confiança no DCB (Data Center Bridging)

iWARP
— rede subjacente: TCP/IP
— o TCP oferece controle de fluxo e gerenciamento de congestionamento


O RoCE depende muito da configuração do DCB, como ETS (Enhanced Transmission Service) e PFC (Priority Flow Control), o que poderá se tornar um problema se os switches de rede não estiverem configurados corretamente. O iWARP não requer configuração de switch.

A Microsoft começou a oferecer suporte ao RDMA no Windows Server 2012 e adicionou novos recursos aos SOs Windows Server mais recentes. Um recurso disponível no sistema operacional mais recente da Microsoft, o Windows Server 2019, é a capacidade de incluir o RDMA no sistema operacional convidado (VM). Isso permite que o sistema convidado tenha o mesmo acesso de baixa latência a um armazenamento em rede como o host nativo, reduzindo a sobrecarga da CPU e aprimoramento o throughput/desempenho diretamente na VM.


A Dell EMC oferece ótimas opções para RDMA de 25 Gbit/s, como o Cavium QLogic FastLinQ 41262 de duas portas SFP28 e 25 GbE (IWarp/RoCE) e o RDMA Mellanox ConnectX-4 LX de 25 Gbit/s (RoCE). Este exemplo usa o RDMA Mellanox ConnectX-4 LX (modo RoCEv2) para demonstrar o recurso RDMA convidado.

2. Ambiente de laboratório

Servidores: 2 Dell EMC R7425 (processador AMD Epyc 7551 de 32 núcleos), memória de 256 GB, Mellanox ConnectX-4 Lx totalmente atualizado (BIOS, firmware, drivers e SO)
Funções/recursos instalados: Hyper-V, DCB, Failover Clustering, S2D
Switch: Dell EMC S5048F-ON — MGMT VLAN 2, SMB VLAN 15
 
A Dell EMC recomenda atualizar o BIOS, os firmwares, os drivers e o sistema operacional como parte do ciclo de atualização agendado. O BIOS, o firmware, o driver e as atualizações do sistema operacional foram projetados para aprimorar a confiabilidade, a estabilidade e a segurança de seu sistema.

3. Configuração de hardware

1. Reinicialize os servidores e acesse a configuração do sistema (pressione F2 durante o POST).

2. Selecione Device Settings.


Configurações de nível de dispositivo do BIOS
Figura 1: Device Settings no BIOS
 
3. Selecione a NIC do slot 1 porta 1 — Mellanox

Mellanox no nível do dispositivo do BIOS
Figura 2: Device Settings da Mellanox slot 1 porta 1
 
4. Acesse Device Level Configuration

Configuração no nível do dispositivo do BIOS
Figura 3: Device Level Configuration
 
5. Selecione SR-IOV em Virtualization Mode.

SR-IOV no nível do dispositivo do BIOS
Figura 4: configuração SR-IOV 
 
6. Repita as etapas acima na NIC do slot 1 porta 2 — Mellanox.

Mellanox no nível do dispositivo do BIOS2
Figura 5: Device Settings da Mellanox slot 1 porta 2
 
7. Volte ao menu principal de System Setup e selecione System BIOS.

BIOS do sistema
Figura 6: System BIOS
 
8. Selecione Integrated Devices.

Dispositivos integrados
Figura 7: Integrated Devices do BIOS
 
9. Ative a opção SR-IOV Global Enable.

Ativação global do SR-IOV
Figura 8: SR-IOV Global
 
10. Salve sua configuração e reinicialize o servidor.
 

4. Configurando o RDMA convidado


1. Instale o Windows Server 2019+
2. Instale a função Hyper-V e o recurso Data Center Bridging (DCB).
3. Configure o QoS (Quality-of-Service, qualidade de serviço), DCB, PFC ETS. Certifique-se de que a configuração de QoS e da NIC do servidor corresponda à configuração do switch.
4. Configure o Hyper-V SET (Switch Embedded Team).

Ativar o switch Hyper-V
Figura 9: configuração do vSwitch
 
5. Teste a comunicação do RDMA entre os servidores físicos antes de configurar as VMs. Faça download do Microsoft Diskspd e do script do Microsoft Test-RDMA PowerShell. Continue com as etapas abaixo somente se a comunicação estiver funcionando corretamente. Caso contrário, verifique a configuração do switch e/ou as configurações do DCB no host.

Testar a comunicação RDMA1
Figura 10: hosts físicos Test-Rdma
 
6. Verifique se a opção SR-IOV está ativada nos adaptadores RDMA de ambos os servidores.

Verificar se o SR-IOV está ativado
Figura 11: SR-IOV ativada
 
7. Crie duas máquinas virtuais de 2ª geração (sistema operacional convidado), uma em cada servidor. Em seguida, instale o Windows Server 2019. Nesse cenário, um SO convidado é criado com duas vNICs, uma para tráfego de gerenciamento (VLAN 2) e uma para tráfego de SMB (VLAN 15).

Criar 2 VMs NetConfig
Figura 12: host de configuração de rede do SO convidado R7425-01

2 VM NetConfig2
Figura 13: host de configuração de rede da máquina virtual R7425-02
 
8. Desligue as VMs.
9. Ative as opções SR-IOV e RDMA no SO convidado.

Ativar SR-IOV e convidado RDMA
Figura 14: ativar as opções SR-IOV/RDMA no SO convidado
 
10. Inicie as VMs e, em seguida, abra o Gerenciador de dispositivos. A Mellanox Virtual Function (VF) deve estar listada em Adaptadores de rede. A FV não é apresentada como um adaptador de rede normal em Conexões de rede, conforme mostrado na Figura 15. 

Gerenciador de dispositivos de VM
Figura 15: Gerenciador de dispositivos do sistema operacional convidado e conexões de rede
 
Nota: Pode ser necessário instalar um driver de NIC para ativar o RDMA no sistema operacional convidado.
11. Ative o RDMA na vNIC do SMB. A funcionalidade RDMA já está ativada na Mellanox VF (Ethernet4 — Figura 16).

RDMA da VM ativado
Figura 16: ativar RDMA na vNIC do SMB
 
12. Teste o RDMA convidado. 
HOW16693_en_US__17icon Nota: É importante especificar o IfIndex (vNIC Interface Index, Índice de Interface da vNIC) e o VfIndex (Mellanox VF Interface Index, Índice de Interface da Mellanox VF).

Testar a VM RDMA convidada
Figura 17: sistema operacional convidado do Test-RDMA
 

5. Cmdlets do PowerShell

#Create new virtual switch with SRIOV option enabled
New-VMSwitch -Name xxxx -NetadapterName xxxx,xxxx -AllowManagementOS $true -EnableEmbeddedTeaming $true -EnableIov $true

#Verify if SRIOV is enabled on physical adapter
Get-NetAdapterSriov -Name xxxx

#Get VM network configuration
Get-VM -Name xxxx| Get-VMNetworkAdapter

#Get VM network VLAN configuration
Get-VM -Name | Get-VMNetworkAdapterVlan

#Set VM SRIO and RDMA on Virtual Machine(Guest OS) vNIC
Get-VM -Name xxxx | Set-VMNetworkAdapter -Name xxx -IovWeight 100 -IoVQueuePairsRequested 2
Get-VM -Name xxxx | Set-VMNetworkAdapterRdma -Name xxx -RdmaWeight 100

#Enable RDMA on NetAdapter
Enable-NetAdapterRdma -Name xxxx

#Test-Rdma Physical Host
.\Test-Rdma.ps1 -IfIndex xx -IsRoCE $true -RemoteIpAddress xxx.xxx.xxx.xxx -PathToDiskspd xxxxx

#Test-Rdma Virtual Machine (Guest OS)
.\Test-Rdma.ps1 -IfIndex xx -IsRoCE $true -RemoteIpAddress xxx.xxx.xxx.xxx -PathToDiskspd xxxxx -VfIndex xx

6. Links de download


Algum comentário, pergunta ou sugestão? Entre em contato conosco pelo endereço WinServerBlogs@dell.com
 

문서 속성


영향을 받는 제품

PowerEdge, Microsoft Windows Server 2019

마지막 게시 날짜

11 7월 2024

버전

8

문서 유형

How To