如果您认为高性能计算结构InfiniBand已经最终技术时——请三思。在Interop 2010展会上,许多会议都集中于使用统一存储和服务器实现聚合数据中心网络的战略上。 这个争论超载了典型的Fibre Channel over Ethernet (FCoE)。事实上,争论集中在使用 Converged Enhanced Ethernet (CEE)或数据中心桥接技术在Ethernet上实现InfiniBand的本质是什么。
InfiniBand已经在高性能计算环境中使用很多年了,它的优点是超高速传输(它能够实现 40 Gigabit速度)和低延迟。但它的问题是它不是基于Etherne……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
如果您认为高性能计算结构InfiniBand已经最终技术时——请三思。在Interop 2010展会上,许多会议都集中于使用统一存储和服务器实现聚合数据中心网络的战略上。
这个争论超载了典型的Fibre Channel over Ethernet (FCoE)。事实上,争论集中在使用 Converged Enhanced Ethernet (CEE)或数据中心桥接技术在Ethernet上实现InfiniBand的本质是什么。
InfiniBand已经在高性能计算环境中使用很多年了,它的优点是超高速传输(它能够实现 40 Gigabit速度)和低延迟。但它的问题是它不是基于Ethernet,而Ethernet是已经标准化的、主流网络,并已经证明了它能够很容易通过网络管理一项技术。
ROCE规范将InfiniBand转变成混合的聚合I/O
但在四月初,InfiniBand Trade Association (IBTA) 发布了一个名为Remote Direct Memory Access (RDMA) over Converged Ethernet(ROCE —— 发间为“rocky”) 的新规范。RDMA 使服务器能够通过一个共享结构与其它服务器连接和交互,而不需要通过网络协议栈,而 Ethernet网络则需要。这意味着数据包会绕过TCP/IP,这个过程正是一般会引起延迟的位置。
通过使用支持数据中心桥接的Converged Enhanced Ethernet (CEE) 交换机,企业能够使 InfiniBand——或RDMA流量——在一个Ethernet主干网上传输。事实上,通过数据中心桥接设备,企业能够在同一个Ethernet主干网上传输FCoE和InfiniBand流量。
IBTA说这个技术将不仅能实现InfiniBand所具有的40 Gigabit速度,同时也将减少物理资源和能耗方面的成本。
“数据中心的TCP/IP使用了太多的服务器空间,”IBTA的Bill Boas说。“InfiniBand只需要一半的服务器。”
支持聚合 I/O的ROCE产品
Mellanox Technologies为聚合数据中心网络开发 InfiniBand 交换机和聚合 I/O 适配器,它在Interop上发布了其支持 ROCE规范的InfiniBand桥接和配置器。
BridgeX BX5020与公司的InfiniBand ConnectX适配器一起实现了计算集群能够在计算、网络和存储之间共享相同的结构,而不管使用的是LAN还是SAN基础架构。这样企业就能够在一个标准的Ethernet主干网上传输InfiniBand或Fibre Channel流量 —— 或者同时传输这两种流量。
Mellanox聚合I/O平台有4个40 Gigabit服务器交换机端口,支持最多12个10 Gigabit的连接Ethernet LAN和iSCSI SAN的端口,支持最多16个1/2/4/8 Gigabit的连接Fibre Channel SAN的端口,能够混合Fibre Channel和Ethernet端口,并保证InfiniBand和Ethernet或Fibre Channel之间的延迟低于200纳秒。
Mellanox和IBTA的高管们说InfiniBand显然是金融交换或任何依赖于毫秒级速度的应用的首选,如金融交易和银行服务——当然,包括非常受欢迎的云。
所以在Interop展位上,Mellanox将它的InfiniBand桥和适配器与IBM的BladeCenter HS22组合在一起传输超高速的IBM WebSphere低延迟消息。它也展示了将它的网关和适配器与Cisco的Nexus交换机组合在一起传输实时的New York Stock Exchange (NYSE) 应用。
针对聚合数据中心网络的InfiniBand并不适合所有人
但是在关于聚合和虚拟化I/O的一个Interop展会上,Networks Are Our Lives, Inc.的首席科学家和创始人Howard Marks却不太支持公司将ROCE或InfiniBand over Ethernet桥接技术作为长期的发展方向。
“支持者认为它应该像Ethernet一样无处不在……我更愿意了解他们真正的作用,并且我希望他们能够共享这方面信息,”Marks 说。
采购InfiniBand over Ethernet的公司是那些已经购买了InfiniBand并且希望在他们转向 Ethernet后仍然保持这个技术的公司,或者是那些需要极端和即时容量需求的公司。对于这些公司,Mellanox 将“每年从他们身上赚到一笔钱”,他风趣地说。
“它的优点是高带宽和低延迟……1微秒以下速度; 300纳秒延迟,”Marks 说。“您能够获得更高的端口密度,一个交换机可以支持150个端口,但是它是另一种网络,也是另一组驱动。”
翻译
TechTarget中国特约技术编辑,某高校计算机科学专业教师和网络实验室负责人,曾任职某网络国际厂商,关注数据中心、开发运维、数据库及软件开发技术。有多本关于思科数据中心和虚拟化技术的译著,如《思科绿色数据中心建设与管理》和《基于IP的能源管理》等。
相关推荐
-
50G硅光子亮相 首开200Gb/s InfiniBand和以太网纪录
近日,Mellanox在OFC 2016 (美国光纤通讯展览会)上展示了全新的50Gb/s硅光子调制器和探测器。本次展示对于InfiniBand和以太网互连基础设施意义重大,让端到端的HDR 200Gb/s解决方案成为可能。