浏览
帮助
登录
未解决
此帖子已超过 5 年
freshplus
63 消息
1
3425
2012年10月14日 23:00
如果可以访问,硬盘框是如何链接的呢?
回复(10)
Zhang_Jiawen
2 Intern
•
1.2K 消息
0
2012年10月15日 00:00
对于每一个引擎来说,它内部封装的dir pair工作在active/active模式,两者之间是可以fail over的,但引擎之间无法failover来控制磁盘。
VMAX系统中,dir封装在引擎中。VMAX系统柜中有1至8个引擎。每一个引擎内封装了一对dir pair。引擎内部的dir之间互为pair。引擎间的dir没有pair关系。
举例说,如果engine4故障,那么理论上其后端连接的bay1A和2A的下半部分的盘就访问不到了。但实际情况中这种故障发生的概率非常非常低,大多数情况下造成Engine无法正常工作的原因是2个Power Supply都坏掉(dark site,Power Supply坏掉但没有被发现,直到2个都发生故障)。
liulei_it
3.2K 消息
太神奇了
我有DMX 版本的 《EMC Symmetrix DMX architecture》product description guide
如果有 VMAX 版本的就好了一直没能search到,不知道有没有哦。
Fenglin1
2.1K 消息
楼上正解,再传一张图片看得更加清楚点,各个引擎对应的DAE关系。
之前了解到VMAX控制节点数据可以镜像到另一个引擎的某控制节点,那硬盘框能否也跨引擎链接?感觉这样可靠性更高,任一一个引擎故障都不会影响业务访问。
这个应该是数据访问机制,一个引擎可以通过virtual matrix访问到另外一个引擎连接的后端磁盘和缓存内的数据。如果一个引擎整个挂了,其他引擎也没办法通过它访问相应的数据了。
不过,假设这种情况真的发生,前端连接冗余的话,也不一定会影响到数据访问。因为VMAX在建立Device的时候,Enginuity算法会把Hyper分散到不同的Enigne上面,一个Raid1的两个Member理论上会由两个不同的Engine接管,且分散在不同的DAE里面(前提是VMAX安装了两个引擎),同理对应Raid5,Raid6。
什么是Hyper可以参考之前我在另外一个帖子里的回复:https://community.emc.com/message/681819#681819
2012年10月15日 01:00
RAID1的两个member放到不同Engine性能是否会受较大影响啊? RAID5、RAID
6是否要求引擎个数足够多才能做到跨引擎建RAID啊?如果我是一个8D+1P的RAID5,采用2引擎的系统是否就无法达到这种任意一引擎故障业务可以继续读写的效果了?
2012年10月15日 03:00
性能上不会有影响。 Raid5的话,建个3+1,两个引擎的情况下,所有Hyper就能散布在不同的Dir上了,7+1的话就要有两个Hyper在一个dir或者engine里面了。
不过像jiawen说的那样,整个引擎完全不可用的情况还是非常非常低的。
2012年10月15日 16:00
V-max的直连式矩阵是封装在引擎中的阿,那对比DMX的结构有神马好处呢?
下面是原来的DMX的结构
2012年10月15日 17:00
总结了VMAX和DMX系列的一些主要比较和区别,列出如下:
1)架构不同。DMX Direct Matrix架构:有独立的前端,后端和Cache板卡,所有板卡通过各自的端口连接在Midplane上从而实现板间通信。VMAX Virtual Matrix架构: 前后端板卡及分布式Cache封装在Engine中,各Engine通过Virtual Matrix交换架构进行通信。可参见楼上提到的~
2)端口连接数量:VMX前端口连接数量为DMX-4的2倍,后端口数量也是2倍,从而缩短了DA存储磁盘菊花链的长度。
3) 性能提升:VMAX性能可达DMX-4的2.6倍。由于应用了多板卡间I/O负载均衡、全局内存、多核处理器(每个director 8个CPU core,4个分给DA slice4个分给FA slice)、高速Virtual Matrix连接等技术,使得VMAX系统性能得到大幅提升。
4)容量增长:VMAX系统容量为DMX-4的3倍,可用容量达到DMX-4的4倍。
5)节约资源:将常用管理和功能跨越多重存储分层,从而以更少的资源实现更大的容量。系统框架的减少也节约了电源和封装需求。以下是DMX和VMAX相比较资源节约的具体数值:
- 重量和空间的节省 : 6 cabinets => 2 cabinets, 3833Kg + 1631Kg => 1570 Kg
- 能量的节省 : 25.87 KVA+10.83KVA / 85100 Btu/hr+35800 Btu/hr => 8.09 KVA / 26700 Btu/hr
- 磁盘容量优化: 760 disks total of 84 Tb => 152 disks total of 78 Tb
- i/o 处理能力增加 : 32+16 ports 2Gb/s => 32 ports 8 Gb/s
戴尔支持资源
查看更多
查看全部
Top
Zhang_Jiawen
2 Intern
2 Intern
•
1.2K 消息
0
2012年10月15日 00:00
对于每一个引擎来说,它内部封装的dir pair工作在active/active模式,两者之间是可以fail over的,但引擎之间无法failover来控制磁盘。
Zhang_Jiawen
2 Intern
2 Intern
•
1.2K 消息
0
2012年10月15日 00:00
VMAX系统中,dir封装在引擎中。VMAX系统柜中有1至8个引擎。每一个引擎内封装了一对dir pair。引擎内部的dir之间互为pair。引擎间的dir没有pair关系。
举例说,如果engine4故障,那么理论上其后端连接的bay1A和2A的下半部分的盘就访问不到了。但实际情况中这种故障发生的概率非常非常低,大多数情况下造成Engine无法正常工作的原因是2个Power Supply都坏掉(dark site,Power Supply坏掉但没有被发现,直到2个都发生故障)。
liulei_it
2 Intern
2 Intern
•
3.2K 消息
0
2012年10月15日 00:00
太神奇了
我有DMX 版本的 《EMC Symmetrix DMX architecture》product description guide
如果有 VMAX 版本的就好了一直没能search到,不知道有没有哦。
Fenglin1
2 Intern
2 Intern
•
2.1K 消息
0
2012年10月15日 00:00
楼上正解,再传一张图片看得更加清楚点,各个引擎对应的DAE关系。
freshplus
63 消息
0
2012年10月15日 00:00
之前了解到VMAX控制节点数据可以镜像到另一个引擎的某控制节点,那硬盘框能否也跨引擎链接?感觉这样可靠性更高,任一一个引擎故障都不会影响业务访问。
Fenglin1
2 Intern
2 Intern
•
2.1K 消息
1
2012年10月15日 00:00
这个应该是数据访问机制,一个引擎可以通过virtual matrix访问到另外一个引擎连接的后端磁盘和缓存内的数据。如果一个引擎整个挂了,其他引擎也没办法通过它访问相应的数据了。
不过,假设这种情况真的发生,前端连接冗余的话,也不一定会影响到数据访问。因为VMAX在建立Device的时候,Enginuity算法会把Hyper分散到不同的Enigne上面,一个Raid1的两个Member理论上会由两个不同的Engine接管,且分散在不同的DAE里面(前提是VMAX安装了两个引擎),同理对应Raid5,Raid6。
什么是Hyper可以参考之前我在另外一个帖子里的回复:https://community.emc.com/message/681819#681819
freshplus
63 消息
0
2012年10月15日 01:00
RAID1的两个member放到不同Engine性能是否会受较大影响啊? RAID5、RAID
6是否要求引擎个数足够多才能做到跨引擎建RAID啊?如果我是一个8D+1P的RAID5,采用2引擎的系统是否就无法达到这种任意一引擎故障业务可以继续读写的效果了?
Fenglin1
2 Intern
2 Intern
•
2.1K 消息
0
2012年10月15日 03:00
性能上不会有影响。 Raid5的话,建个3+1,两个引擎的情况下,所有Hyper就能散布在不同的Dir上了,7+1的话就要有两个Hyper在一个dir或者engine里面了。
不过像jiawen说的那样,整个引擎完全不可用的情况还是非常非常低的。
liulei_it
2 Intern
2 Intern
•
3.2K 消息
0
2012年10月15日 16:00
V-max的直连式矩阵是封装在引擎中的阿,那对比DMX的结构有神马好处呢?
下面是原来的DMX的结构
Zhang_Jiawen
2 Intern
2 Intern
•
1.2K 消息
1
2012年10月15日 17:00
总结了VMAX和DMX系列的一些主要比较和区别,列出如下:
1)架构不同。DMX Direct Matrix架构:有独立的前端,后端和Cache板卡,所有板卡通过各自的端口连接在Midplane上从而实现板间通信。VMAX Virtual Matrix架构: 前后端板卡及分布式Cache封装在Engine中,各Engine通过Virtual Matrix交换架构进行通信。可参见楼上提到的~
2)端口连接数量:VMX前端口连接数量为DMX-4的2倍,后端口数量也是2倍,从而缩短了DA存储磁盘菊花链的长度。
3) 性能提升:VMAX性能可达DMX-4的2.6倍。由于应用了多板卡间I/O负载均衡、全局内存、多核处理器(每个director 8个CPU core,4个分给DA slice4个分给FA slice)、高速Virtual Matrix连接等技术,使得VMAX系统性能得到大幅提升。
4)容量增长:VMAX系统容量为DMX-4的3倍,可用容量达到DMX-4的4倍。
5)节约资源:将常用管理和功能跨越多重存储分层,从而以更少的资源实现更大的容量。系统框架的减少也节约了电源和封装需求。以下是DMX和VMAX相比较资源节约的具体数值:
- 重量和空间的节省 : 6 cabinets => 2 cabinets, 3833Kg + 1631Kg => 1570 Kg
- 能量的节省 : 25.87 KVA+10.83KVA / 85100 Btu/hr+35800 Btu/hr => 8.09 KVA / 26700 Btu/hr
- 磁盘容量优化: 760 disks total of 84 Tb => 152 disks total of 78 Tb
- i/o 处理能力增加 : 32+16 ports 2Gb/s => 32 ports 8 Gb/s