云数据中心网络与SDN:1.8.3 其他技术细节
1.8.3 其他技术细节
另外,FabricPath还有一些其他的技术点,下面总结出几点供读者参考。
FabricPath不支持点对多点的连接,不可以用普通的以太网交换机连接多个处于fabricpath mode下的端口。
可以支持到16路的ECMP,可以通过L2~L4层字段的组合进行哈希。
VLAN子树的修剪可以通过广播GM-LSP(Group Membership LSP)来完成。
通过监听IGMP来支持IP Multicast,提供RPF机制防止生成环路。
主机或者普通以太网交换机可以通过vPC+以多活的方式接入FabricPath,设备只需要支持标准的Port-Channel技术即可实现vPC+。vPC和vPC的主要区别是Peer-Link上的端口必须配置为fabricpath mode,并且还需要配置一个虚拟的SID,MAC地址学习时即学习该虚拟的SID,以便于实现负载均衡。
Leaf是Pure L2,Routing需要在Spine上开启SVI来实现。开启SVI后,Spine需要学习各个VLAN中的MAC地址,对硬件资源要求很高。此时可以插入M1/M2 module,使用VDC虚出来一个新的控制平面,并通过Proxy L2 Learning将Routing的功能卸载到M1/M2 module上去。
可以使用vPC+在FabricPath中实现双活的Gateway,也可以使用Anycast HSRP支持N路多活的Gateway。在这两种方式下,L3 GW的MAC地址均可以看作通过虚拟的SID接入到FabricPath中。
FabricPath对于STP来说相当于一个Bridge,所有的CE端口上均以c84c.75fa.60xx(xx为FabricPath的Domain号)作为Bridge ID发送BDPU。除了TCN BDPU以外,CE端口收到其他BPDU时不会在FabricPath内进行扩散。在收到TCN后,则需要通过ISIS在FabricPath内进行扩散,以更新MAC的转发信息。如果一个FabricPath域通过多个CE端口与同一个STP Domain连接,FabricPath还需要将TCN消息扩散到该STP Domain其余的部分中去。
支持ISIS LSP OverLoad,计算SPF时会绕过相应的交换机。一个应用场景是,在新交换机上线时,将该交换机发出的LSP报文置位overload bit,直到该交换机完成收敛后复位,防止在收敛过程中出现路由黑洞。
支持通过BFD进行状态监测。
FabricPath主要实现在Cisco Nexus 5K和7K系列的交换机中,与面向SDN的Nexus 9K目前属于两条独立的产品线。如果想从FabricPath升级为ACI(见4.2节),就需要把5K和7K都换掉。由于FabricPath已经有了很多的部署,因此Cisco目前在数据中心还是两条腿走路,不过FabricPath已经不再是Cisco主推的解决方案了。
- 点赞
- 收藏
- 关注作者
评论(0)