您好,欢迎来到 DCFabric

ENGLISH中文版

DCFabric的“秦”版本在2017年OpenStack Boston峰会上发布 2017/5/23 17:52:34

上海宽带中心受邀参展美国波士顿举行的OpenStack Summit峰会,向与会人士介绍了DCFabirc的主要特性和基于DCFabric的OpenStack网络的高性能优势。DCFabric的最新版本“秦”在峰会上正式发布,新版本主要在多线程优化、网络连接管理、内存管理、主备集群数据同步等方面完成了大量的重构和优化工作,从而可以支持3000个交换机的大型网络拓扑,控制器内存占用也大大降低,DCFabric的性能和稳定性得以大大提高,具备了在OpenStack环境下大规模商用的能力。

版本优化简介

经过内存和TCP连接管理的大量优化工作后,DCFabric的最新版本名为“秦”,即将上线,可以支持3000台交换机。

在以前的DCFabric版本中,我们采用的SELECT I/O复用机制,最多只能支持1024个交换机。 尽管在大多数OpenStack环境中这样的交换机已经足够了,但我们认为,在某些设置(如公共云,Docker)中使用DCFabric时,需要更多的交换机,因此,在秦版的DCFabric ,我们转向EPOLL I/O复用机制,可以支持更多数量的交换机的TCP连接。

秦版本最大的特点是具备了可以支持3000个交换机的能力,满足了云计算中心大规模部署的应用场景。另外,由DCFabric对接的OpenStack平台,计算节点之间的链路可以到达30G以上的转发速率。

功能点1:DCFabric可以支持3000个交换机

我们在具有两个Intel Xeon CPU和16GB内存的物理服务器上部署DCFabric。使用mininet在10台物理机上创建3000台交换机,每台交换机都有300台交换机。

图1:DCFabric可以显示3000个交换机

图2:DCFabric可以显示3000个交换机拓扑图

图3:在3000个交换机上的Host可以实现pingall

功能点2:DCFabric可以支持Openv Switch的30G以上的打流

另外,DCFabric的高效下发流表策略,使得由DCFabric控制下的Open vSwitch实现了30G以上的转发速率,由于DCFabric不采用OverLay的技术,不通过对网络包的封装和解封装,因此大大提高了网络的转发速率。我们通过了在连接Open vSwitch上5对虚拟机之间的打流,实现了30G以上的速率。

环境介绍:

创建一个包含两个节点的OpenStack环境,每个节点都有一个40G网卡。

我们在每个计算节点上创建5个VM,然后使用iperf来测试在不同计算节点的5对VM之间的最大网络吞吐量。

在OpenStack Dashboard上,我们可以看到5个vms在控制器上运行,5个vms正在运行

在DCFabric GUI上可以看到DCFabric可以发现两个交换机,每个OVS由5台主机连接。

然后我们使用5对vms中的iperf,通过物理机测试两个ovs之间的吞吐量

我使用“Top”来查看cpu的使用情况,数值处于比较低的状态,吞吐量可以看到5对vms吞吐量结果和两个ov之间的整个网络吞吐量可以达到接近35GB。

图4:DCFabric GUI上可以看到DCFabric可以发现两个交换机,每个OVS由5台主机连接

图5:DCFabric连接OpenvSwitch可以达到30G以上速率

DCFabric发布会现场

图6:在OpenStack Boston Summit现场,举办了DCFabric的发布会,以下是现场的照片

图7:在DCFabric发布会上,许延伟博士为大家解答问题

图8&9:展会上许延伟博士以及蒋暕青耐心讲解了DCFabric实现的细节