Switch Fabric
论坛 发表于:11年07月11日 14:18 [转载] 51CTO
刚刚说了,当盒子里面芯片较多的时候连接起来很麻烦,于是出现了新的转发单元Switch Fabric(Cisco N5000上新的名词叫做Unified Crossbar Fabric)。其实这个东东在框式交换机里面很常见,下面会有更详细的介绍。而在盒式交换机里面,目前看到的发布资料使用此种架构的就是Cisco的3750X和N5000了,连接方式如下图所示,这已经接近分布式转发的范围了。
作者将这个Fabric单元叫做交换芯片,便于和前面的ASIC转发芯片区分,二者的主要区别是,交换芯片只处理报文在设备内部的转发,类似Cut-Through,为不同转发芯片间搭建路径,不做过滤和修改。而转发芯片要对报文进行各种查表、过滤和修改等动作,包括缓存都在其中调用,大多是基于Store-Forward方式进行报文处理,是交换机处理数据报文的核心部件。
3750X目前还没有看到进一步的发展需要,而N5000其实是为了Cisco的网络虚拟化架构而服务,不再单单属于传统意义上的Ethernet交换机了。Juniper为QFabric设计的QFX3500接入盒子(48*10GE+4*40GE)估计也是类似于N5000这种带交换芯片的分布式架构。另外怀疑Arista的7148SX也是分布式架构的,应该是6个8*10G的转发芯片通过交换芯片连接,和它的机框式交换机中48*10G接口板布局相同。
总的来说盒子里面搞分布式的最主要原因就是希望提高接口密度,尤其是万兆接口密度,后面相信还会有其他厂商陆续跟进,但是其接口数量需求是与部署位置息息相关的,盲目的扩充接口数并不一定符合数据中心的需要。
再唠叨几句数据中心Box交换机的选型,前面说了Top Of Rack是Box的主要归宿,一个标准Rack目前最高的42U,考虑冗余怎么也得搞2台Box,剩下最多装40台1U的Server,那么上48GE+4*10GE的Box就是最适合的。依此类推,接口数量多的box不见得真有太大作用,位置会很尴尬。考虑选择Box的最大转发容量时,直接根据服务器接口数来计算接口即可。目前随着FCoE的推进,服务器提供10GE CNA接口上行到接入交换机越来越常见,那么对Box的要求也随之提升到10GE接入40G/100G上行的趋势,像Juniper的QFX3500(48*10GE+4*40GE)明显就是上下行带宽1:3收敛的交换机,估计下一代Top Of Rack的数据中心交换机怎么也得要40*10GE+4*100GE的接口才能彻底搞定42U机架,如果全部署2U的服务器,则最少也需要16*10GE+4*40GE接口的Box才靠谱一些。