Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Create and access a list of your products

Sådan konfigurerer du NIC-teaminger på PowerEdge-servere

Summary: Sådan opretter du NIC-teaminger på en Dell PowerEdge-server i VMware, Windows eller ved hjælp af Linux.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Instructions

Følgende artikel indeholder oplysninger om NIC Teaming i Windows, VMware og Linux.

 

 

Hvad er netværksadaptersamarbejde (Bonding)?

Netværksadapter-teaming er et udtryk, der bruges til at beskrive forskellige metoder til at kombinere flere netværksforbindelser for at øge gennemstrømningen eller give redundans. NIC-teaming (netværksinterfacekort) og LAN på bundkort (LOM)-teaming. Kan give organisationer en omkostningseffektiv metode til hurtigt og nemt at forbedre netværkets pålidelighed og overførselshastighed.
NIC-teaming (Network Interface Card) er en metode til at levere høj tilgængelighed og fejltolerance i servere.

Nedenfor er et eksempel på en webserver med to netværkskort, hver med en uplink- og en downlink-forbindelse.
Et af de to netværkskort svigter eller afbrydes, men klientens computerforbindelse forbliver tilsluttet.
2 netværkskort til netværkssamarbejde mislykkes
Fig. 1: To netværkskort til netværkssamarbejde mislykkes, men internetforbindelsen forbliver oppe.

 

De fire primære typer af netværksteams er som følger:

 

Smart Load Balancing (SLB) og Failover: Denne type team balancerer netværkstrafik på tværs af alle primære adaptere. Hvis der opstår fejl på en primær adapter, vil de resterende primære adaptere stadig afbalancere belastningen. Hvis alle primære adaptere ikke fungerer, fortsætter trafikken med at flyde ved hjælp af standby-adapteren uden afbrydelser. Når en primær adapter er online igen, genoptages trafikken, der strømmer gennem den.

SLB med automatisk reservefunktion Deaktiver: Denne type team fungerer som ovenfor, men trafikken vender ikke automatisk tilbage til den primære adapter, når den er online igen.

IEEE 802.3ad Dynamic Link Aggregation: Også kendt som Link Aggregation Control Protocol (LACP) eller IEEE 802.1ax. Denne type team giver øget gennemstrømning ved at samle flere fysiske links i et logisk link, hvis effektive båndbredde er summen af de fysiske links. Denne type team kræver, at strømmen i den anden ende af forbindelsen understøtter LACP. Switchen skal være korrekt konfigureret, for at teamet kan fungere korrekt.

Generisk trunking: Denne type team, der også kaldes statisk linksammenlægning, leverer den samme type pakkefunktionalitet som IEEE 802.3ad/802.1ax, men bruger ikke LACP. Switchen behøver ikke at understøtte LACP men skal være korrekt konfigureret, for at denne type team kan fungere.

BEMÆRK: Disse typer teams understøttes af Broadcom-netværkskort. Intel-netværksadaptere giver lignende funktionalitet, men bruger en anden terminologi til at beskrive teamtyperne. Nogle operativsystemer, f.eks. Windows Server 2012, indeholder også NIC-teamingfunktionalitet og bruger sandsynligvis en anden terminologi.

 

Scenarier, hvor NIC-teamings ikke kan konfigureres.
  • Hvis netværkskortet bruges som en delt LOM for iDRAC
  • Hvis netværkskortet bruges til netværksopstart.
  • Hvis netværkskortet bruges til et KDNIC (Kernel debug network adapter).
  • NIC er, der bruger andre teknologier end Ethernet, såsom WWAN, WLAN/Wi-Fi, Bluetooth og InfiniBand, herunder IPoIB-netværkskort (Internet Protocol over InfiniBand).
  • Vi anbefaler også, at netværkskort skal have samme hastighed.

 

Samarbejde om Windows-netværkskort Opsætning af netværkskortteams til Windows Server 2008/2012/2012 R2/2016/2019

Sådan opretter du et NIC-team:

  1. Klik på Lokal server i Serverstyring.

  2. I ruden Egenskaber skal du finde NIC Teaming og derefter klikke på linket Deaktiveret til højre. Dialogboksen NIC Teaming åbnes.

  3. Dialogboksen NIC-teaming
    Dialogboksen Samarbejde med Windows-netværkskort
    Fig. 2: Dialogboksen Samarbejde med Windows-netværkskort

  4. Under Adaptere og grænseflader skal du vælge de netværksadaptere, du vil føje til et NIC-team.

  5. Klik på OPGAVER, og klik derefter på Føj til nyt team.
    Windows-adaptere og -grænseflader føjes til et nyt team
    Fig. 3: Windows-adaptere og -grænseflader føjes til et nyt team.

  6. Dialogboksen Nyt team åbnes og viser netværkskort og teammedlemmer. I Team-navn skal du indtaste et navn på det nye NIC-team.
    Opret netværkskort ved at vælge adaptere, og opret et teamnavn
    Fig. 4: Windows - Opret NIC ved at vælge adaptere og oprette et teamnavn.

  7. Udvid om nødvendigt Yderligere egenskaber, vælg værdier for Teaming-tilstand, Belastningsjusteringstilstand og Standbyadapter. Normalt er den mest højtydende belastningsbalanceringstilstand dynamisk.
    Egenskaber for tilføjelse af Windows NIC-team
    Fig. 5: Egenskaber for tilføjelse af Windows NIC-team

  8. Hvis du vil konfigurere eller tildele et VLAN-nummer til NIC-teamet, skal du klikke på linket til højre for den primære teamgrænseflade. Dialogboksen Ny teamgrænseflade åbnes.
    Windows Standardmedlemskab af VLAN
    Fig. 6: Windows Standardmedlemskab af VLAN

  9. Hvis du vil konfigurere VLAN-medlemskab, skal du klikke på Specifikt VLAN. Skriv VLAN-oplysningerne i den første sektion af dialogboksen.
    Windows-specifikt VLAN-medlemskab
    Fig. 7: Windows-specifikt VLAN-medlemskab

  10. Klik på OK.

 

NIC-teaming på en Hyper-V-vært

Hvis du skal konfigurere netværkskortteams på en Hyper-V-vært, skal du se Microsoft-artiklen Oprette et nyt NIC-team på en værtscomputerDette hyperlink fører dig til et websted uden for Dell Technologies.

 

PowerShell-instruktion

Vi anbefaler, at du bruger Microsoft Teaming på operativsystemer 2012 og højere.

 

Oprettelse af Netværks-team ved hjælp af PowerShell

  1. Åbn en PowerShell-prompt med administratorrettigheder. Skriv PowerShell i Windows 10-proceslinjesøgningen®. Tryk på tasterne W og S for at åbne Søg.

  2. Du skulle nu se resultatet af Windows PowerShell øverst. Højreklik på Windows PowerShell, og vælg Kør som administrator.
    Windows Startmenu PowerShell Kør som administrator
    Fig. 8: Windows Startmenu PowerShell Kør som administrator

  3. Hvis prompten Kontrol af brugerkonti vises, skal du klikke på Ja.

  4. Indtast kommandoen new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]" og tryk på Enter-tasten .

    • [TEAMNAME] - det navn, du vil give til teamet af netværksadaptere
    • [NIC1] - navnet på den første netværksadapter fundet ovenfra
    • [NIC2] - navnet på den anden netværksadapter fundet ovenfra

    PowerShell-kommando
    Fig. 8: PowerShell-kommando

    Eksempel

    new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"

    Åbn netværksforbindelserne ved at gå til kontrolpanelet Netværks > - og internetnetværksforbindelser > .

 

VMware NIC-samarbejde

VMware vSphere
Et NIC-team kan dele en masse trafik mellem fysiske og virtuelle netværk. Blandt nogle eller alle dets medlemmer og give en passiv failover i tilfælde af hardwarefejl eller netværksafbrydelse.

Se VMware-KB'en for detaljerede trin til, hvordan du konfigurerer NIC-teaming på VMware ved at vælge din ESXi-version øverst til højre.
Konfigurer netværkskort-teaming, failover og belastningsjustering på en vSphere Standard Switch eller Standard Port Group.

Reference: NIC-teaming i ESXi og ESX (1004088)

 

Linux Channel Bonding-grænseflader

Linux giver administratorer mulighed for at binde flere netværksgrænseflader sammen til en enkelt kanal ved hjælp af bonding-kernemodulet og en særlig netværksgrænseflade, der kaldes en kanalbindingsgrænseflade. Channel bonding giver to eller flere netværksgrænseflader mulighed for at fungere som en enkelt, samtidig med at det øger båndbredden og giver redundans. Advarsel. Brugen af direkte kabelforbindelser uden netværksswitche er ikke understøttet til bonding. De failover-mekanismer, der er beskrevet her, fungerer ikke som forventet, hvis der ikke er netværksswitche til stede.

 

Bonding understøttes ikke med en direkte forbindelse ved hjælp af krydskabler.

 

Tilstandene aktiv-backup, balance-TLB og balance-alb kræver ingen specifik konfiguration af switchen. Andre bonding-tilstande kræver, at switchen skal konfigureres til at samle linkene. F.eks. kræver en Cisco-switch EtherChannel til tilstandene 0, 2 og 3, men til tilstand 4 kræves LACP og EtherChannel. Se den dokumentation, der fulgte med switchen, og den bonding.txt fil i kernel-doc-pakken.

 

Kontrollér, om bonding-kernemodulet er installeret.
I Red Hat Enterprise Linux 6 indlæses bondingmodulet ikke som standard. Du kan indlæse modulet ved at udstede følgende kommando som rod:

~]# modprobe --first-time bonding

 

Intet visuelt output angiver, at modulet ikke kørte og nu er blevet indlæst. Denne aktivering fortsætter ikke på tværs af systemgenstart. Se afsnit 31.7, "Vedvarende modulindlæsning" for en forklaring af vedvarende modulindlæsning. Givet en korrekt konfigurationsfil ved hjælp af BONDING_OPTS-direktivet, belastes bondingmodulet efter behov og behøver derfor ikke at blive indlæst separat. Du kan se flere oplysninger om modulet ved at angive følgende kommando:

~]$ modinfo bonding

 

Arbejde med kernemoduler for at få oplysninger om indlæsning og fjernelse af moduler. Opret en kanaltilknytningsgrænseflade
Hvis du vil oprette en kanalbindingsgrænseflade, skal du oprette en fil i /etc/sysconfig/network-scripts/ mappe kaldet ifcfg-bondN, der erstatter N med nummeret til grænsefladen, såsom 0.
Indholdet af filen kan være identisk med den type grænseflade, der bliver bundet, såsom en Ethernet-grænseflade. Den eneste forskel er, at ENHED-direktivet er bondN, hvor N erstattes med nummeret på grænsefladen. Det NM_CONTROLLED direktiv kan tilføjes for at forhindre NetworkManager i at konfigurere denne enhed.
Eksempel på ifcfg-bond0-grænsefladekonfigurationsfil

Det følgende er et eksempel på en konfigurationsfil for en channel bonding-grænseflade:

DEVICE=bond0
IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="bonding parameters separated by spaces"

 

Bindingens MAC-adresse er taget fra den første grænseflade, der skal føjes til netværket. Den kan også angives ved hjælp af HWADDR-direktivet, hvis det er nødvendigt. Hvis du vil have NetworkManager til at styre denne grænseflade, skal du fjerne NM_CONTROLLED=nej-direktivet eller indstille det til ja og tilføje TYPE=Bond og BONDING_MASTER=yes.
Når kanalbindingsgrænsefladen er oprettet, skal de netværksgrænseflader, der skal bindes sammen, konfigureres ved at føje master- og slavedirektiverne til deres konfigurationsfiler. Konfigurationsfilerne for hver af de kanalbundne grænseflader kan være næsten identiske.
Eksempel på ifcfg-ethX-bundet grænsefladekonfigurationsfil

Hvis to Ethernet-grænseflader bliver kanal, der er bundet, kan både eth0 og eth1 være som følger:

DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no

 

I dette eksempel skal du udskifte X med den numeriske værdi for grænsefladen.

 

Når grænsefladerne er blevet konfigureret, skal du genstarte netværksservice for at se bond. Udsted følgende kommando som rod:

~]# service network restart

 

Hvis du vil se status for en bond, skal du se /proc/-filen ved at udstede en kommando i følgende format:

cat /proc/net/bonding/bondN

 

F.eks.:

~]$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

 

Vigtigt i Red Hat Enterprise Linux 6 skal grænsefladespecifikke parametre for bonding kernel-modulet være angivet som en mellemrumssepareret liste i BONDING_OPTS="bonding parameters"-direktivet i ifcfg-bondN interface-filen. Angiv ikke indstillinger, der er specifikke for en obligation i /etc/modprobe.d/bonding.confeller i den forældede fil /etc/modprobe.conf. Max_bonds-parameteren er ikke grænseflade-specifik og skal derfor, hvis det er nødvendigt, angives i /etc/modprobe.d/bonding.conf som følger:

options bonding max_bonds=1

 

Den max_bonds parameter bør dog ikke indstilles, når ifcfg-bondN-filer bruges med BONDING_OPTS-direktivet, da dette direktiv får netværksscripts til at oprette bindingsgrænsefladerne efter behov.
Eventuelle ændringer i /etc/modprobe.d/bonding.conf træder ikke i kraft, før modulet er indlæst næste gang. Et kørende modul skal først fjernes.

 

Oprettelse af flere obligationer
I Red Hat Enterprise Linux 6 oprettes der for hver binding en kanalbindingsgrænseflade, herunder BONDING_OPTS direktivet. Denne konfigurationsmetode bruges, så flere bonding-enheder kan have forskellige konfigurationer. For at oprette flere kanalbindingsgrænseflader skal du gøre som følger:
Opret flere ifcfg-bondN-filer med BONDING_OPTS-direktivet; dette direktiv får netværksscripts til at oprette bindingsgrænsefladerne efter behov.
Opret eller rediger eksisterende grænsefladekonfigurationsfiler, der skal bindes, og inkluder SSLAVE-direktivet.
Tildel de grænseflader, der skal bindes, slavegrænsefladerne, til kanalbindingsgrænsefladerne ved hjælp af MASTER-direktivet.
Eksempel på konfigurationsfiler
til flere ifcfg-bondN-grænseflade Følgende er et eksempel på en konfigurationsfil til kanalbindingsgrænsefladen:

DEVICE=bond
N IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
vBONDING_OPTS="bonding parameters separated by spaces"

 

I dette eksempel skal du udskifte N med nummeret på bonding-grænsefladen. Hvis du f.eks. vil oprette to bindinger, skal du oprette to konfigurationsfiler, ifcfg-bond0 og ifcfg-bond1.
Opret de grænseflader, der skal bindes i henhold til eksemplet ifcfg-ethX-bundet grænsefladekonfigurationsfil, og tildel dem til bindingsgrænsefladerne efter behov ved hjælp af MASTER = bondN-direktivet. F.eks. fortsættes fra ovenstående eksempel, hvis der kræves to grænseflader pr. bond, skal der oprettes fire grænsefladekonfigurationsfiler for to bonds, og tildel de to første med MASTER=bond0 og de næste to med MASTER=bond1.

 

Reference: Linux-kanalbindingsgrænseflader

 

Affected Products

Microsoft Windows Server 2016, Microsoft Windows Server 2019, Red Hat Enterprise Linux Version 5, Red Hat Enterprise Linux Version 6
Article Properties
Article Number: 000124262
Article Type: How To
Last Modified: 12 Aug 2024
Version:  7
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.