FCoE(Fiber Channel over Ethernet)是FC网络技术的自然演化,通过汇聚的单一网络存储技术为整合数据中心服务器I/O、网络设备以及存储提供了巨大帮助。目前最普遍的FCoE路径是从服务器到FCoE接入交换机:FCoE接入交换机用于分割以太网与FC SAN之间的传输,SAN数据流量直接通过FC连接到现有的FC交换机和存储阵列,也就是说仅服务器与交换机之间的访问层是10GbE网络。目前主流厂商,例如IBM、HP在相应的刀片服务器产品线中提供了该解决方案。(详见解读主流厂商FCoE方案) FCoE与传统解决方案的对比 在主流厂商的FCoE解决方案中,服务器端的网卡+……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
FCoE(Fiber Channel over Ethernet)是FC网络技术的自然演化,通过汇聚的单一网络存储技术为整合数据中心服务器I/O、网络设备以及存储提供了巨大帮助。目前最普遍的FCoE路径是从服务器到FCoE接入交换机:FCoE接入交换机用于分割以太网与FC SAN之间的传输,SAN数据流量直接通过FC连接到现有的FC交换机和存储阵列,也就是说仅服务器与交换机之间的访问层是10GbE网络。目前主流厂商,例如IBM、HP在相应的刀片服务器产品线中提供了该解决方案。(详见解读主流厂商FCoE方案)
FCoE与传统解决方案的对比
在主流厂商的FCoE解决方案中,服务器端的网卡+HBA卡融合为CNA卡,网络接入交换机和光纤交换机融合为FCoE交换机。服务器端的设备数量和接入层的网络设备数量都减少为原来的1/2。
由于只是在接入层进行了相应的调整,原有数据中心拓扑中的汇聚层和核心层并未发生变化。需要注意的是FCoE天然是万兆的,而目前主流的数据中心很多都是千兆网络,SAN存储网络大多为4Gb。虽然FCoE交换机可以自适应千兆网络和4Gb存储网络,但是部署该FCoE解决方案并不能利用万兆网络的优势。该方案通过向下兼容的方式保护了现有IT投资,也不失为一种折中的解决方案。
在数据中心部署上述FCoE解决方案,如果要充分利用万兆网络优势,需要对上层网络设备统一更换,而这意味着需要大量的资金投入。这也是目前FCoE解决方案在现有数据中心没有大规模使用的原因。但是FCoE是数据中心发展的一个不可逆的趋势,在新数据中心建设过程中应优先考虑FCoE解决方案,减少采购设备数量,进而网络拓扑的复杂性,达到节能减排的效果。
端到端FCoE解决方案
接入层的FCoE并不能带来巨大优势,所以各数据中心对它还持观望态度,并没有大规模使用该解决方案。但是相关存储和网络厂商已经看到了FCoE解决方案巨大的市场前景。在网络汇聚和核心层以及存储端投入了大量研发资金,力图提供端到端的FCoE(End-to-End FCoE)解决方案。在这方面Cisco和NetApp将其他厂商抛在了后面。
NetApp是第一家支持FCoE的存储供应商。和服务器类似,FAS和V系列中高端存储通过在存储PCI插槽上安装CNA卡对FCoE进行支持。
Cisco 借助在以太网络和存储网络的巨大优势,推出了支持端到端FCoE的刀片服务器UCS(Unified Computing System,统一计算系统),高调进入服务器领域,与传统的服务器厂商IBM、HP展开了激烈竞争。
UCS FCoE交换机是第一款同时支持FC和FCoE的产品,为实现端到端的FCoE扫清了障碍。UCS统一计算系统采用的是UCS 6120 XP Fabric Interconnect和UCS 2104 XP Fabric Extender。Fabric Extender为刀片机箱背板模块,对内连接刀片服务器,对外连接Fabric Interconnect。UCS 6120 XP Fabric Interconnect负责所有的存储和网络I/O,提供的10Gb光口可以连接万兆以太网,8Gb FC端口通过连接FC Switch访问FC存储,DCE端口设置为FCOE port后,可以直连FCoE存储。
为验证端到端FCoE解决方案的可行性,笔者在数据中心搭建了一整套测试环境,包括Cisco UCS刀片服务器、UCS 6120 FCoE交换机、FC光纤交换机、万兆以太网接入交换机、NetApp V3240存储系统和HP EVA4400 FC磁盘阵列。下图为端到端FCoE解决方案拓扑,实现了在存储网络层可以同时访问FC存储和FCoE存储。既保护了现有的FC投入,同时在存储端对FCoE提供了支持。
但在测试过程中发现了如下两个问题,在此与读者进行分享:
1、我们在测试时,首先使用的是Brocade的FC交换机,在测试过程中发现刀片服务器不能同时访问FC存储和FCoE存储,某一时刻只能访问FC存储或者只能访问FCoE存储。将FC交换机更换为Cisco MDS光纤交换机之后才解决了此问题。由此可见,该解决方案对其他厂商产品的兼容还有待提高。
2、我们试图在机架服务器上安装Brocade的CNA卡,并通过LC-LC光纤线连接到UCS 6100上,以太网络和访问存储都存在问题。由此可见,UCS 6100目前只支持Cisco自己的刀片服务器,并不兼容他厂商的产品。这在一定程度上限制了方案的可扩展性。
虽然测试结果表明Cisco和NetApp的产品组合能够实现端到端的FCoE,同时可以保护现有的但是却存在着诸多限制。在现有数据中心部署该解决方案还不够成熟,即使决定在新数据中心部署该解决方案一定要做好相关的测试,并考虑方案的长期扩展性,尽量避开厂商绑定问题。
必须FCoE吗?
从以上分析可知,目前厂商提供的较成熟的FCoE解决方案是在接入层,而在新数据中心建设过程中部署更为复杂、扩展性更好的FCoE解决方案还存在一定的风险,需要进行更为深入的测试,同时也意味着需要投入更多的成本。目前来讲,降低风险的唯一方式就是锁定厂商。
而与此同时,厂商在大肆宣传FCoE的诸多优势,是否意味着FCoE适用于任何场景?相对于其他技术具有替代性?事实上在笔者看来,企业可以利用FCoE能够保持并演进现有的光纤通道设备,在保护FC基础设施上投资的基础上让数据中心运行效率更高,成本效益更好。而对于没有使用FC SAN存储网络环境的企业来讲,通过iSCSI和NAS也可以享受到融合以太网网络所带来的诸多效益,大可不必直接采用FCoE。
相关推荐
-
Infinidat InfiniBox为Windows提供SMB协议节点
为满足Windows Server数据中心客户的需求,磁盘存储专家Infinidat现在让其InfiniBox […]
-
虚拟路由软件给网络行业带来的影响是什么?
虚拟路由软件已经出现超过10年时间,但是之前一直不温不火。在2017年,vRouting开始在数据中心、分支网络和服务提供商应用程序得到更广泛的应用。
-
如何创建一个家庭VMware测试实验室?
建立一个实验室的最简单方法之一是使用虚拟化,这样你就能够利用一些既节省空间且具经济效益的设备。那么如何创建一个家庭VMware测试实验室呢?
-
一群来自英特尔的技术人员将网卡性价比提升到了新高度
作为一家网络解决方案提供商,Netronome公司有一半人员来自英特尔,核心技术是源于英特尔的网络流处理器技术,主要协助搭载英特尔的服务器(如x86等)进行高性能的网络计算和加速。目前,Netronome正朝向数据中心进行转型……