Følgende artikkel inneholder informasjon om NIC-teaming i Windows, VMware og Linux.
Network adapter teaming er et begrep som brukes til å beskrive ulike metoder for å kombinere flere nettverkstilkoblinger for å øke gjennomstrømningen eller gi redundans. Teaming for nettverkskort (NIC) og LAN på hovedkort (LOM) teaming. Kan gi organisasjoner en kostnadseffektiv metode for raskt og enkelt å forbedre nettverkets pålitelighet og gjennomstrømning.
Network Interface Card (NIC)-teaming er én metode for å gi høy tilgjengelighet og feiltoleranse i servere.
Nedenfor er et eksempel på en webserver med to nettverkskort hver med en uplink og en downlink-tilkobling.
Ett av de to nettverkskortene mislykkes eller kobles fra, men klientens datamaskintilkobling forblir tilkoblet.
Fig. 1: To nettverkskort for nettverkskortdeling mislykkes, men Internett-tilkoblingen forblir oppe.
De fire hovedtypene av nettverksgrupper er som følger:
Smart lastbalansering (SLB) og failover: Denne typen team balanserer nettverkstrafikk på tvers av alle primære adaptere. Hvis et primært kort mislykkes, vil de gjenværende primære kortene fortsette å balansere belastningen. Hvis alle primære kort mislykkes, flyter trafikken uten avbrudd ved hjelp av et reservekort. Når en primæradapter er koblet til igjen, fortsetter trafikken å strømme gjennom den.
SLB med automatisk reserveløsning deaktivert: Denne typen team fungerer som ovenfor, men trafikken går ikke automatisk tilbake til primæradapteren når den kommer tilbake på nettet.
IEEE 802.3ad Dynamisk koblingsaggregering: Også kjent som Link Aggregation Control Protocol (LACP) eller IEEE 802.1ax. Denne typen team gir økt gjennomstrømning ved å samle flere fysiske lenker i en logisk kobling hvis effektive båndbredde er summen av de fysiske koblingene. Denne typen team krever at strømmen i den andre enden av forbindelsen støtter LACP. Svitsjen må være riktig konfigurert for at teamet skal fungere skikkelig.
Generisk trunking: Denne typen team, også kjent som aggregering av statiske koblinger, gir samme type kombinasjonsfunksjonalitet som IEEE 802.3ad/802.1ax, men bruker ikke LACP. Svitsjen trenger ikke å støtte LACP, men må være riktig konfigurert for at denne gruppetypen skal fungere.
Slik oppretter du en NIC-gruppe:
Klikk på Lokal server i Serveradministrasjon.
Finn NIC-teaming i Egenskaper-ruten, og klikk deretter koblingen Deaktivert til høyre. Dialogboksen NIC-teaming åpnes.
Dialogboksen NIC-teaming Fig
. 2: Dialogboksen Windows NIC-teaming
I Kort og grensesnitt velger du nettverkskortene du vil legge til i en NIC-gruppe.
Klikk OPPGAVER, og klikk deretter Legg til i nytt team.
Fig. 3: Windows-adaptere og -grensesnitt legger til et nytt team.
Dialogboksen Nytt team åpnes og viser nettverkskort og gruppemedlemmer. I Gruppenavn skriver du inn et navn på den nye NIC-gruppen.
Fig. 4: Windows - Opprett NIC ved å velge adaptere og opprette et teamnavn.
Utvid om nødvendig Flere egenskaper, velg verdier for Teaming-modus, Lastbalanseringsmodus og Ventemodus-adapter. Vanligvis er den mest effektive lastbalanseringsmodusen dynamisk.
Fig. 5: Egenskaper for Windows NIC-teamtillegg
Hvis du vil konfigurere eller tilordne et VLAN-nummer til NIC-teamet, klikker du på koblingen til høyre for grensesnittet for primærteamet. Dialogboksen Nytt teamgrensesnitt åpnes.
Fig. 6: Windows standard VLAN-medlemskap
Hvis du vil konfigurere VLAN-medlemskap, klikker du på Spesifikt VLAN. Skriv inn VLAN-informasjonen i den første delen av dialogboksen.
Fig. 7: Windows-spesifikt VLAN-medlemskap
Klikk på OK.
Hvis du må konfigurere NIC-teaming på en Hyper-V-vert, kan du se Microsoft-artikkelen Opprette et nytt NIC-team på en vertsdatamaskin
PowerShell-instruksjon
Opprette nettverksgruppen ved hjelp av PowerShell
Åpne en hevet PowerShell-ledetekst. Skriv inn PowerShell i søket på oppgavelinjen i Windows® 10. Trykk W- og S-tasten for å åpne Søk.
Du skal nå se resultatet av Windows PowerShell øverst. Høyreklikk Windows PowerShell, og velg Kjør som administrator.
Fig. 8: Start-menyen i Windows PowerShell Kjør som administrator
Hvis du blir bedt om brukerkontokontroll , klikker du Ja.
Skriv inn kommandoen new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]"
og trykk Enter-tasten .
Fig. 8: PowerShell, kommando
Eksempel
new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"
Åpne nettverkstilkoblingene ved å gå til Kontrollpanel Nettverk > og Internett-nettverkstilkoblinger > .
VMware vSphere
: Et NIC-team kan dele en mengde trafikk mellom fysiske og virtuelle nettverk. Blant noen av eller alle medlemmene, og sørge for en passiv failover i tilfelle maskinvarefeil eller nettverksbrudd.
Se VMware KB for detaljerte trinn om hvordan du konfigurerer NIC Teaming på VMware ved å velge ESXi-versjonen øverst til høyre.
Konfigurere NIC-teaming, failover og belastningsfordeling på en vSphere Standard-svitsj eller standard portgruppe.
Referanse: NIC-gruppering i ESXi og ESX (1004088)
Linux gjør det mulig for administratorer å binde flere nettverksgrensesnitt sammen til en enkelt kanal ved hjelp av bindingskjernemodulen og et spesielt nettverksgrensesnitt som kalles et kanalbindingsgrensesnitt. Med kanaltilknytning kan to eller flere nettverksgrensesnitt fungere som ett, og samtidig øke båndbredden og sørge for redundans. Advarsel: Bruken av direkte kabeltilkoblinger uten nettverkssvitsjer støttes ikke for tilknytning. Failover-mekanismene som beskrives her, fungerer ikke som forventet uten at det finnes nettverkssvitsjer.
Modusene active-backup, balance-TLB og balance-alb krever ingen spesifikk konfigurasjon av svitsjen. Andre tilknytningsmoduser krever at svitsjen konfigureres for å aggregere koblingene. En Cisco-svitsj krever for eksempel EtherChannel for modus 0, 2 og 3, mens modus 4 krever LACP og EtherChannel. Se dokumentasjonen som fulgte med svitsjen og bonding.txt filen i kjernedokpakken.
Kontroller om jordingskjernemodulen er installert.
I Red Hat Enterprise Linux 6 er ikke bindingsmodulen lastet inn som standard. Du kan laste inn modulen ved å utstede følgende kommando som rot:
~]# modprobe --first-time bonding
Ingen visuell utdata indikerer at modulen ikke kjørte og nå er lastet. Denne aktiveringen vedvarer ikke på tvers av omstarter av systemet. Se Seksjon 31.7, «Vedvarende modulbelastning» for en forklaring på vedvarende modulbelastning. Gitt en korrekt konfigurasjonsfil ved hjelp av BONDING_OPTS-direktivet, lastes bindingsmodulen etter behov og trenger derfor ikke lastes separat. Hvis du vil vise informasjon om modulen, kan du utstede følgende kommando:
~]$ modinfo bonding
Arbeide med kjernemoduler for informasjon om lasting og lossing av moduler. Opprette et grensesnitt
for kanaltilknytning Hvis du vil opprette et grensesnitt for kanalbinding, oppretter du en fil i /etc/sysconfig/network-scripts/
katalog kalt ifcfg-bondN, erstatter N med tallet for grensesnittet, for eksempel 0.
Innholdet i filen kan være identisk med hvilken type grensesnitt som blir bundet, for eksempel et Ethernet-grensesnitt. Den eneste forskjellen er at DEVICE-direktivet er bondN, og erstatter N med nummeret for grensesnittet. NM_CONTROLLED direktivet kan legges til for å hindre at NetworkManager konfigurerer denne enheten.
Eksempel på ifcfg-bond0-grensesnittkonfigurasjonsfil
Følgende er et eksempel på en konfigurasjonsfil for grensesnitt for kanaltilknytning:
DEVICE=bond0 IPADDR=192.168.1.1 NETMASK=255.255.255.0 ONBOOT=yes BOOTPROTO=none USERCTL=no NM_CONTROLLED=no BONDING_OPTS="bonding parameters separated by spaces"
MAC-adressen til obligasjonen er hentet fra det første grensesnittet som skal legges til nettverket. Om nødvendig kan den også angis ved hjelp av HWADDR-direktivet. Hvis du vil at NetworkManager skal kontrollere dette grensesnittet, fjerner du NM_CONTROLLED=nei-direktivet, eller setter det til ja, og legger til TYPE=Bond og BONDING_MASTER=yes.
Når kanalbindingsgrensesnittet er opprettet, må nettverksgrensesnittene som skal bindes sammen, konfigureres ved å legge til MASTER- og SLAVAV-direktivene i konfigurasjonsfilene. Konfigurasjonsfilene for hvert av de kanalbundne grensesnittene kan være nesten identiske.
Eksempel på ifcfg-ethX-bundet grensesnittkonfigurasjonsfil
Hvis to Ethernet-grensesnitt blir kanal som er bundet, kan både eth0 og eth1 være som følger:
DEVICE=ethX BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no
Når grensesnittene er konfigurert, starter du nettverkstjenesten på nytt for å aktivere tilknytningen. I roten gir du følgende kommando:
~]# service network restart
For å se på statusen til en tilknytning kan du se /proc/-filen ved å gi en kommando i følgende format:
cat /proc/net/bonding/bondN
Eksempel:
~]$ cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: load balancing (round-robin) MII Status: down MII Polling Interval (ms): 0 Up Delay (ms): 0 Down Delay (ms): 0
Viktig: I Red Hat Enterprise Linux 6 må grensesnittspesifikke parametere for kjernemodulen for tilknytning være angitt som en mellomromsdelt liste i BONDING_OPTS="bonding parameters"-direktivet i grensesnittsfilen ifcfg-bondN. Ikke angi opsjoner som er spesifikke for en binding i /etc/modprobe.d/bonding.conf
, eller i den utdaterte /etc/modprobe.conf-filen. max_bonds-parameteren er ikke grensesnittspesifikk, og bør om nødvendig angis i /etc/modprobe.d/bonding.conf
som følger:
options bonding max_bonds=1
Parameteren max_bonds bør imidlertid ikke angis ved bruk av ifcfg-bondN-filer med BONDING_OPTS-direktivet, da dette direktivet fører til at nettverksskriptene oppretter obligasjonsgrensesnittene etter behov.
Eventuelle endringer i /etc/modprobe.d/bonding.conf trer ikke i kraft før modulen er lastet inn neste gang. En kjørende modul må først lastes ut.
Opprette flere bindinger
I Red Hat Enterprise Linux 6, for hver obligasjon, opprettes et kanalbindingsgrensesnitt inkludert BONDING_OPTS-direktivet. Denne konfigurasjonsmetoden brukes slik at flere tilknytningsenheter kan ha forskjellige konfigurasjoner. For å opprette grensesnitt for flerkanalsbinding, gjør du følgende:
Opprett flere ifcfg-bondN-filer med BONDING_OPTS-direktivet; dette direktivet fører til at nettverksskriptene oppretter obligasjonsgrensesnittene etter behov.
Opprett eller rediger eksisterende grensesnittkonfigurasjonsfiler som skal bindes og inkluder SLAVE-direktivet.
Tilordne grensesnittene som skal bindes, slavegrensesnittene, til kanalbindingsgrensesnittene ved hjelp av MASTER-direktivet.
Eksempel på flere ifcfg-bondN-grensesnittkonfigurasjonsfiler
Følgende er et eksempel på en konfigurasjonsfil for kanalbindingsgrensesnitt:
DEVICE=bond N IPADDR=192.168.1.1 NETMASK=255.255.255.0 ONBOOT=yes BOOTPROTO=none USERCTL=no NM_CONTROLLED=no vBONDING_OPTS="bonding parameters separated by spaces"
I dette eksemplet skal du erstatte N med tallet for tilknytningsgrensesnittet. Hvis du for eksempel vil opprette to bindinger, oppretter du to konfigurasjonsfiler, ifcfg-bond0 og ifcfg-bond1.
Opprett grensesnittene som skal bindes i henhold til eksempelkonfigurasjonsfilen ifcfg-ethX bonded interface, og tilordne dem til obligasjonsgrensesnittene etter behov ved hjelp av MASTER=bondN-direktivet. Hvis to grensesnitt per tilknytning er nødvendig, oppretter du fire grensesnittskonfigurasjonsfiler for to filer og tilordner de to første ved hjelp av MASTER= bond0 og de neste to ved hjelp av MASTER=bond1.
Referanse: Grensesnitt for Linux-kanalbinding