开始新对话

未解决

此帖子已超过 5 年

Community Manager

 • 

7.3K 消息

378

2014年2月18日 18:00

如何在VNXe上正确使用链路聚合

​ ​
​ ​

​如何在​​VNXe​​上正确使用链路聚合​​ ​

​ ​
​ ​

​ ​

​转载请在文首保留原文出处:​​EMC​​中文支持论坛​​https://community.emc.com/go/chinese​

​ ​

​ ​
​ ​

​介绍​

​ ​
​ ​

​ ​

​本文将为您介绍在​​VNXe​​系列存储上使用链路聚合的好处以及如何配置链路聚合。​

​ ​

​ ​
​ ​

​更多信息​

​ ​
​ ​

​ ​

​在配置链路聚合之前,我们要搞清楚什么是链路聚合,以及为什么要使用链路聚合?​

​ ​

​ ​

​ ​

​什么是链路聚合?​

​ ​


​ ​

​链路聚合(​​Link Aggregation​​)又称​​Trunk​​,是指将多个物理端口捆绑在一起,成为一个逻辑端口,以实现出​​/​​入流量在各成员端口中的负荷分担,交换机根据用户配置的端口负荷分担策略决定报文从哪一个成员端口发送到对端的交换机。当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送报文,并根据负荷分担策略在剩下链路中重新计算报文发送的端口,故障端口恢复后再次重新计算报文发送端口。链路聚合在增加链路带宽、实现链路传输弹性和冗余等方面是一项很重要的技术。​

​ ​

​ ​

​ ​

​接下来,我们看看​​VNXe​​系列存储上的支持链路聚合情况。​

​ ​

​ ​

​VNXe​​系列存储都使用链路聚合(​​Link Aggregation​​)提供网络高可用性或冗余。通过链路聚合,最多可以将四个以太网端口结合为一个逻辑链路。并且链路聚合必须包含第一个网口​​eth2​​。即​​eth3​​、​​eth4​​、​​eth5​​只能与​​eth2​​进行链路聚合,​​eth3​​、​​eth4​​、​​eth5​​之间无法单独进行链路聚合。​

​ ​

​ ​

​ ​

​那为什么要在​​VNXe​​上使用链路聚合呢?有什么好处呢?​

​ ​


​ ​

​在​​VNXe​​上使用链路聚合有以下优势:​

​ ​

​·​​ ​​往返于​​VNXe​​网络路径的高可用性 — 就算聚合端口网络的一个物理端口发生了故障,​​VNXe ​​系统也不会失去连接。​

​ ​

​·​​ ​​提高整体吞吐量 - 多个物理端口绑定到一个逻辑端口。​

​ ​

​·​​ ​​跨链接端口实现负载平衡 - 网络流量分布在多个物理端口之间。​

​ ​

​ ​

​ ​

​那么如何在​​VNXe​​上配置链路聚合呢?​

​ ​

​ ​

​要使​​VNXe​​存储系统支持链路聚合,首先要保证​​VNXe​​的每个存储处理器(​​SP​​)必须具有相同类型和数量的以太网端口。然后,两个链接端口必须连接到相同的交换机,并且交换机必须配置为使用链路聚合,此聚合使用链路聚合控制协议​​(LACP)​​。有关交换机上使用​​LACP​​的信息,请咨询交换机提供商。​

​ ​

​ ​

​最后在​​VNXe Unisphere​​图形管理界面做以下操作:​

​ ​

​ ​Link Aggregation.png​ ​

​ ​

​ ​

​1.​​ ​​登录​​VNXe Unisphere​​图形管理界面。​

​ ​

​2.​​ ​​单击“设置”​​->​​“更多配置”​​->​​“高级配置”。​

​ ​

​3.​​ ​​在“​​IO ​​模块”下,选择“​​eth3​​”、“​​eth4​​”或“​​eth5​​”。​

​ ​

​4.​​ ​​在“以太网端口”下,将“聚合”选项里面的“与​​ eth2 ​​聚合”打钩,启用链路聚合。​

​ ​

​注释:正如我们在上面所提到的,链路聚合必须包含第一个网口​​eth2​​,即​​eth3​​、​​eth4​​、​​eth5​​只能与​​eth2​​进行链路聚合。所以,“聚合”选项里面显示为“与​​eth2 ​​聚合”。​

​ ​

​5.​​ ​​单击下面的“执行更改”保存链路聚合的配置。​

​ ​

​ ​
​ ​

​适用于​

​ ​
​ ​

​ ​

​VNXe​​系列存储​

​ ​

​VNXe3100​

​ ​

​VNXe3150​

​ ​

​VNXe3300​

​ ​

​ ​

#IWork4Dell

请您将合适的回复标记为“接受的回答”,并为喜欢的帖子“点赞”。这对我们非常重要!

2 Intern

 • 

643 消息

2014年2月18日 19:00

很实用的知识分享,赞!

找不到事件!

Top