数据中心小结
论坛 发表于:11年07月11日 14:18 [转载] 51CTO
3.7?数据中心小结
又到了小结部分,云计算数据中心相比较传统数据中心对网络的要求有以下变化:
1、?Server-Server流量成为主流,而且要求二层流量为主。
2、?站点内部物理服务器和虚拟机数量增大,导致二层拓扑变大。
3、?扩容、灾备和VM迁移要求数据中心多站点间大二层互通。
4、?数据中心多站点的选路问题受大二层互通影响更加复杂。
题内话,FCoE并不是云计算的需求,而是数据中心以网络为核心演进的需求,至于云计算里面是不是一定要实现以网络为核心,就看你是站在哪个设备商的角度来看了。
4?、网络
说到网络,这里关注的重点是前文提到的数据中心内部服务器前后端网络,对于广泛意义上的数据中心,如园区网、广域网和接入网等内容,不做过多扩散。
4.1?路由与交换
网络世界永远的主题,至少目前看来还没有出现能取代这二者技术的影子,扩展开足够写好几本书的了。
数据中心的网络以交换以太网为主,只有传统意义的汇聚层往上才是IP的天下。参考前文的需求可以看出,数据中心的以太网络会逐步扩大,IP转发的层次也会被越推越高。
数据中心网络从设计伊始,主要着眼点就是转发性能,因此基于CPU/NP转发的路由器自然会被基于ASIC转发的三层交换机所淘汰。传统的Ethernet交换技术中,只有MAC一张表要维护,地址学习靠广播,没有什么太复杂的网络变化需要关注,所以速率可以很快。而在IP路由转发时,路由表、FIB表、ARP表一个都不能少,效率自然也低了很多。
云计算数据中心对转发带宽的需求更是永无止境,因此会以部署核心-接入二层网络结构为主。层次越多,故障点越多、延迟越高、转发瓶颈也会越多。目前在一些ISP(Internet Service Provider)的二层结构大型数据中心里,由于传统的STP需要阻塞链路浪费带宽,而新的二层多路径L2MP技术还不够成熟,因此会采用全三层IP转发来暂时作为过渡技术,如前面提到过的接入层与核心层之间跑OSPF动态路由协议的方式。这样做的缺点显而易见,组网复杂,路由计算繁多,以后势必会被Ethernet L2MP技术所取代。
新的二层多路径技术会在下文做更详细的介绍,不管是TRILL还是SPB都引入了二层ISIS控制平面协议来作为转发路径计算依据,这样虽然可以避免当前以太网单路径转发和广播环路的问题,但毕竟是增加了控制平面拓扑选路计算的工作,能否使其依然如以往Ethernet般高效还有待观察。MPLS就是一个尴尬的前车之鉴,本想着帮IP提高转发效率而生根发芽,没想到却在VPN路由隔离方面开花结果了,世事难料啊。