Skip to main content
  • Place orders quickly and easily
  • View orders and track your shipping status
  • Enjoy members-only rewards and discounts
  • Create and access a list of your products

Jak skonfigurować grupowanie kart sieciowych na serwerach PowerEdge

Summary: Tworzenie grup kart sieciowych na serwerze Dell PowerEdge w środowisku VMware, Windows lub Linux.

This article applies to This article does not apply to This article is not tied to any specific product. Not all product versions are identified in this article.

Instructions

Poniższy artykuł zawiera informacje na temat grupowania kart sieciowych w systemach Windows, VMware i Linux.

 

 

Co to jest łączenie kart sieciowych (wiązanie)?

Grupowanie kart sieciowych to termin używany do opisania różnych metod łączenia wielu połączeń sieciowych w celu zwiększenia przepływności lub zapewnienia nadmiarowości. Grupowanie kart interfejsu sieciowego (NIC) i LOM (LAN on Motherboard). Mogą zapewnić organizacjom ekonomiczną metodę szybkiego i łatwego zwiększania niezawodności i przepustowości sieci.
Grupowanie kart interfejsu sieciowego (NIC) jest jedną z metod zapewniania wysokiej dostępności i odporności na uszkodzenia serwerów.

Poniżej przedstawiono przykład serwera WWW z dwiema kartami sieciowymi, z których każda obsługuje jedno połączenie uplink i jedno połączenie
downlink.Jedna z dwóch kart sieciowych uległa awarii lub jest rozłączona, ale połączenie z komputerem klienta pozostaje podłączone.
2 Awaria grupowania karty sieciowej kart sieciowych
Rys. 1: Łączenie dwóch kart sieciowych z kartą sieciową nie działa, ale połączenie z Internetem pozostaje aktywne.

 

Wyróżnia się następujące cztery główne typy zespołów sieciowych:

 

Inteligentne równoważenie obciążenia (SLB) i przełączanie awaryjne: Ten typ zespołu równoważy ruch sieciowy we wszystkich kartach podstawowych. W przypadku awarii jednej z kart, pozostałe karty podstawowe nadal równoważą obciążenie. Jeśli wszystkie podstawowe karty ulegną awarii, ruch będzie kontynuowany przy użyciu karty rezerwowej bez żadnych zakłóceń. Po przywróceniu głównego adaptera do trybu online ruch wznawia przepływ przez kartę.

SLB z automatycznym wyłączaniem awaryjnym: Ten typ zespołu działa jak powyżej, ale ruch nie jest automatycznie zwracany do podstawowej karty po powrocie do trybu online.

Agregacja łączy dynamicznych IEEE 802.3ad: Znany również jako protokół LACP (Link Aggregation Control Protocol) lub IEEE 802.1ax. Ten typ zespołu zapewnia zwiększoną przepływność poprzez łączenie wielu łączy fizycznych w jedno łącze logiczne, którego efektywna przepustowość jest sumą przepustowości łączy fizycznych. Ten typ zespołu wymaga, aby zasilanie po drugiej stronie połączenia obsługiwało protokół LACP. Przełącznik musi być odpowiednio skonfigurowany, aby zespół działał poprawnie.

Trunking ogólny: Ten typ zespołu, znany również jako statyczna agregacja łączy, zapewnia ten sam typ funkcji tworzenia pakietów co IEEE 802.3ad/802.1ax, ale nie używa protokołu LACP. Przełącznik nie musi obsługiwać protokołu LACP, ale musi zostać odpowiednio skonfigurowany, aby grupa mogła działać prawidłowo.

UWAGA: Tego typu zespoły są obsługiwane przez karty sieciowe firmy Broadcom. Karty sieciowe Intel zapewniają podobną funkcjonalność, ale używają innej terminologii do opisania typów zespołów. Niektóre systemy operacyjne, takie jak Windows Server 2012, udostępniają również funkcję grupowania kart sieciowych i prawdopodobnie używają innej terminologii.

 

Scenariusze, w których nie można skonfigurować grupowania kart sieciowych.
  • Jeśli karta sieciowa jest używana jako współużytkowana karta LOM dla kontrolera iDRAC
  • Jeśli do rozruchu sieciowego jest używana karta sieciowa.
  • Jeśli karta sieciowa jest używana dla karty sieciowej debugowania jądra (KDNIC).
  • Karty sieciowe korzystające z technologii innych niż Ethernet, takich jak WWAN, WLAN/Wi-Fi, Bluetooth i InfiniBand, w tym karty sieciowe IPoIB (Internet Protocol over InfiniBand).
  • Zalecamy również, aby karty sieciowe miały taką samą prędkość.

 

Grupowanie kart sieciowych Windows Konfigurowanie grupowania kart sieciowych dla systemu Windows Server 2008/2012/2012 R2/2016/2019

Aby utworzyć grupę kart sieciowych:

  1. W Menedżerze serwera kliknij opcję Serwer lokalny.

  2. W okienku Właściwości zlokalizuj grupowanie kart sieciowych, a następnie kliknij łącze Wyłączone po prawej stronie. Zostanie otwarte okno dialogowe Grupowanie kart sieciowych.

  3. Okno
    Okno dialogowe Grupowanie kart sieciowych w systemie Windows
    dialogowe grupowania kart sieciowychRys. 2: Okno dialogowe Grupowanie kart sieciowych w systemie Windows

  4. W panelu Karty i interfejsy wybierz karty sieciowe, które chcesz dodać do grupy kart.

  5. Kliknij pozycję ZADANIA, a następnie kliknij pozycję Dodaj do nowego zespołu.
    Karty i interfejsy systemu Windows dodają do nowego zespołu
    Rys. 3: Karty i interfejsy systemu Windows dołączają do nowego zespołu.

  6. Zostanie otwarte okno dialogowe Nowy zespół, w którym zostaną wyświetlone karty sieciowe i członkowie zespołu. W polu Nazwa grupy wpisz nazwę nowego zespołu kart sieciowych.
    Utwórz kartę sieciową, wybierając adaptery i tworząc nazwę zespołu
    Rys. 4: Windows — utwórz kartę sieciową, wybierając adaptery i tworząc nazwę zespołu.

  7. W razie potrzeby rozwiń węzeł Dodatkowe właściwości, wybierz wartości dla trybu grupowania, trybu równoważenia obciążenia i adaptera rezerwowego. Zazwyczaj najbardziej wydajnym trybem równoważenia obciążenia jest tryb Dynamiczny.
    Właściwości dodawania zespołu karty sieciowej systemu Windows
    Rys. 5: Właściwości dodawania zespołu karty sieciowej systemu Windows

  8. Jeśli chcesz skonfigurować lub przypisać numer VLAN do zespołu kart sieciowych, kliknij łącze po prawej stronie interfejsu zespołu podstawowego. Zostanie otwarte okno dialogowe Nowy interfejs zespołu.
    Domyślne członkostwo w sieciach VLAN systemu Windows
    Rys. 6: Domyślne członkostwo w sieciach VLAN systemu Windows

  9. Aby skonfigurować członkostwo VLAN, kliknij opcję Określona sieć VLAN. Wpisz informacje o sieci VLAN w pierwszej sekcji okna dialogowego.
    Członkostwo w sieciach VLAN specyficzne dla systemu Windows
    Rys. 7: Członkostwo w sieciach VLAN specyficzne dla systemu Windows

  10. Kliknij przycisk OK.

 

Tworzenie zespołu kart sieciowych na hoście Hyper-V

Jeśli musisz skonfigurować grupowanie kart sieciowych na hoście funkcji Hyper-V, zapoznaj się z artykułem firmy Microsoft Tworzenie nowego zespołu kart sieciowych na komputerze hostaKliknięcie tego hiperłącza powoduje wyświetlenie strony spoza witryny Dell Technologies.

 

Instrukcja programu PowerShell

Zaleca się, ale z Microsoft Teaming korzystać w systemach operacyjnych w wersji 2012 i nowszych.

 

Tworzenie zespołu sieciowego za pomocą PowerShell

  1. Uruchom PowerShell z podwyższonym poziomem uprawnień. W pasku zadań systemu Windows® 10 wpisz PowerShell. Naciśnij W i S , aby otworzyć wyszukiwanie.

  2. Powinieneś teraz zobaczyć wynik Windows PowerShell u góry. Kliknij prawym przyciskiem myszy pozycję Windows PowerShell i wybierz polecenie Uruchom jako administrator.
    Menu Start systemu Windows PowerShell Uruchom jako administrator
    Rys. 8: Menu Start systemu Windows PowerShell Uruchom jako administrator

  3. Jeśli zostanie wyświetlony monit Kontrola konta użytkownika , kliknij przycisk Tak.

  4. Wprowadź polecenie new-NetLBFOTeam [TEAMNAME] "[NIC1]", "[NIC2]" i naciśnij Enter .

    • [TEAMNAME] - nazwa, którą chcesz nadać zespołowi kart sieciowych
    • [NIC1] - nazwa pierwszej karty sieciowej znalezionej powyżej
    • [NIC2] - nazwa drugiej karty sieciowej znaleziona powyżej

    Polecenie PowerShell
    Rys. 8: Polecenie PowerShell

    Przykład

    new-NetLBFOTeam NIC-Team "NIC1" , "NIC2"

    Otwórz Połączenia sieciowe, przechodząc do Panelu > sterowania Połączenia sieciowe i internetowe > .

 

Grupowanie kart sieciowych VMware

VMware vSphere
Zespół NIC może współdzielić obciążenie ruchem między sieciami fizycznymi i wirtualnymi. Wśród niektórych lub wszystkich jego członków i zapewniają pasywne przełączanie awaryjne w przypadku awarii sprzętu lub awarii sieci.

Szczegółowe instrukcje dotyczące konfigurowania grupowania NIC w oprogramowaniu VMware można znaleźć w bazie wiedzy VMware, wybierając wersję ESXi w prawym górnym rogu.
Konfiguracja grupowania kart sieciowych, przełączania awaryjnego i równoważenia obciążenia na standardowym przełączniku vSphere lub standardowej grupie portów.

Źródło: Grupowanie kart sieciowych w ESXi i ESX (1004088)

 

Interfejsy łączenia kanałów w systemie Linux

Linux umożliwia administratorom łączenie wielu interfejsów sieciowych w jeden kanał za pomocą modułu jądra łączącego i specjalnego interfejsu sieciowego, który jest nazywany interfejsem łączenia kanałów. Łączenie kanałów umożliwia wiązanie dwóch lub większej liczby interfejsów sieciowych, które zachowują się jak jeden interfejs, zwiększając jednocześnie przepustowość i zapewniając nadmiarowość. Ostrzeżenie: bezpośrednie połączenie kablowe bez przełączników sieciowych nie wspiera łączenia. Opisane tutaj mechanizmy przełączania awaryjnego nie działają zgodnie z oczekiwaniami bez obecności przełączników sieciowych.

 

Łączenie nie jest obsługiwane w przypadku bezpośredniego połączenia za pomocą krosowych.

 

Tryby aktywnej kopii zapasowej, balance-TLB i balance-alb nie wymagają żadnej szczególnej konfiguracji przełącznika. Inne tryby łączenia wymagają skonfigurowania przełącznika w celu zagregowania łączy. Na przykład przełącznik Cisco wymaga funkcji EtherChannel dla trybów 0, 2 i 3, ale już w przypadku trybu 4 wymagane są LACP i EtherChannel. Zapoznaj się z dokumentacją dostarczoną z przełącznikiem i plikiem bonding.txt w pakiecie kernel-doc.

 

Sprawdź, czy moduł jądra wiążącego jest zainstalowany.
W systemie Red Hat Enterprise Linux 6 moduł łączący nie jest domyślnie ładowany. Moduł można załadować, wywołując następujące polecenie jako root:

~]# modprobe --first-time bonding

 

Brak obrazu wskazującego, że moduł nie został uruchomiony i został załadowany. Ta aktywacja nie jest zachowywana po ponownym uruchomieniu systemu. Sekcja 31.7, "Trwałe ładowanie modułów" zawiera wyjaśnienie trwałego ładowania modułów. Biorąc pod uwagę prawidłowy plik konfiguracyjny wykorzystujący dyrektywę BONDING_OPTS, moduł łączący jest ładowany zgodnie z wymaganiami i dlatego nie ma potrzeby ładowania go osobno. Aby wyświetlić informacje o module, należy użyć następującego polecenia:

~]$ modinfo bonding

 

Praca z modułami jądra w celu uzyskania informacji na temat ładowania i zwalniania modułów. Utwórz interfejs
łączenia kanałów Aby utworzyć interfejs łączenia kanałów, utwórz plik w pliku /etc/sysconfig/network-scripts/ o nazwie ifcfg-bondN, zastępując N numerem interfejsu, takim jak 0.
Zawartość pliku może być identyczna z typem łączonego interfejsu, takim jak interfejs Ethernet. Jedyna różnica polega na tym, że dyrektywa DEVICE zawiera wartość bondN z numerem interfejsu zastępującym literę N. Dyrektywę NM_CONTROLLED można dodać, aby uniemożliwić NetworkManagerowi konfigurowanie tego urządzenia.
Przykładowy plik konfiguracyjny interfejsu ifcfg-bond0

Poniżej przedstawiono przykładowy plik konfiguracyjny interfejsu łączenia kanałów:

DEVICE=bond0
IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="bonding parameters separated by spaces"

 

Adres MAC wiązania jest pobierany z pierwszego interfejsu, który ma zostać dodany do sieci. W razie potrzeby można go także określić za pomocą dyrektywy HWADDR. Jeśli chcesz, aby Menedżer sieci sterował tym interfejsem, usuń dyrektywę NM_CONTROLLED=no lub ustaw ją na tak, a następnie dodaj TYPE=Bond i BONDING_MASTER=yes.
Po utworzeniu interfejsu łączenia kanałów, interfejsy sieciowe, które mają być ze sobą powiązane, muszą zostać skonfigurowane, dodając dyrektywy MASTER i SLAVE do ich plików konfiguracyjnych. Pliki konfiguracyjne dla każdego z interfejsów połączonych kanałami mogą być prawie identyczne.
Przykładowy plik konfiguracyjny interfejsu wiązanego ifcfg-ethX

Jeśli dwa interfejsy Ethernet są połączone, zarówno eth0, jak i eth1 mogą być następujące:

DEVICE=ethX
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no

 

W powyższym przykładzie należy zastąpić literę X wartością liczbową dla interfejsu.

 

Po skonfigurowaniu interfejsów uruchom ponownie usługę sieciową, aby uaktywnić powiązanie. Wydaj następujące polecenie w trybie root:

~]# service network restart

 

Aby wyświetlić stan powiązania, należy sprawdzić plik /proc/, wydając następujące polecenie:

cat /proc/net/bonding/bondN

 

Na przykład:

~]$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

 

Ważne: w systemie Red Hat Enterprise Linux 6 parametry specyficzne dla interfejsu jądra muszą zostać wyszczególnione w dyrektywie BONDING_OPTS="parametry łączenia" w pliku interfejsu ifcfg-bondN. Nie należy określać opcji specyficznych dla obligacji w /etc/modprobe.d/bonding.conflub w przestarzałym pliku /etc/modprobe.conf. Parametr max_bonds nie jest specyficzny dla interfejsu i dlatego, jeśli jest wymagany, powinien zostać określony w pliku /etc/modprobe.d/bonding.conf Następujący sposób:

options bonding max_bonds=1

 

Jednak parametr max_bonds nie powinien być ustawiany podczas korzystania z plików ifcfg-bondN z dyrektywą BONDING_OPTS, ponieważ dyrektywa ta powoduje, że skrypty sieciowe tworzą interfejsy wiązań zgodnie z wymaganiami.
Wszelkie zmiany w /etc/modprobe.d/bonding.conf nie zostaną wprowadzone, dopóki moduł nie zostanie załadowany przy następnej kolejności. Najpierw należy wyładować uruchomiony moduł.

 

Tworzenie wielu wiązań
W systemie Red Hat Enterprise Linux 6 dla każdego powiązania tworzony jest interfejs powiązania kanału, w tym dyrektywa BONDING_OPTS. Wykorzystanie tej metody umożliwia zastosowanie różnych konfiguracji dla kilku połączonych urządzeń. Aby utworzyć wielokanałowe interfejsy łączące, należy postępować w następujący sposób:
Utwórz wiele plików ifcfg-bondN z dyrektywą BONDING_OPTS; dyrektywa ta powoduje, że skrypty sieciowe tworzą interfejsy wiązań zgodnie z wymaganiami.
Utwórz lub edytuj istniejące pliki konfiguracyjne interfejsu, które mają być powiązane i dołącz dyrektywę SLAVE.
Przypisz interfejsy, które mają być połączone, interfejsy podrzędne, do interfejsów łączenia kanałów za pomocą dyrektywy MASTER.
Przykładowe pliki
konfiguracyjne wielu interfejsów ifcfg-bondN Poniżej znajduje się przykład pliku konfiguracyjnego interfejsu łączenia kanałów:

DEVICE=bond
N IPADDR=192.168.1.1
NETMASK=255.255.255.0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
vBONDING_OPTS="bonding parameters separated by spaces"

 

W tym przykładzie w miejsce litery N należy wstawić liczbę łączonego interfejsu. Na przykład, aby utworzyć dwa wiązania, utwórz dwa pliki konfiguracyjne, ifcfg-bond0 i ifcfg-bond1.
Utwórz interfejsy, które mają być powiązane zgodnie z przykładowym plikiem konfiguracyjnym interfejsu wiązanego ifcfg-ethX i przypisz je do interfejsów wiązań zgodnie z wymaganiami dyrektywy MASTER=bondN. Zgodnie z powyższym przykładem, jeśli wymagane są dwa interfejsy przypadające na jedno powiązanie, wówczas dla dwóch wiązań utwórz cztery pliki konfiguracyjne interfejsu i przypisz dwa pierwsze pliki za pomocą polecenia MASTER=bond0, a pozostałe dwa za pomocą MASTER=bond1.

 

Źródło: Interfejsy łączenia kanałów systemu Linux

 

Affected Products

Microsoft Windows Server 2016, Microsoft Windows Server 2019, Red Hat Enterprise Linux Version 5, Red Hat Enterprise Linux Version 6
Article Properties
Article Number: 000124262
Article Type: How To
Last Modified: 12 Aug 2024
Version:  7
Find answers to your questions from other Dell users
Support Services
Check if your device is covered by Support Services.