非常感谢在座各位和主持人,今天的演讲题目是智能网络高效构建云平台,我们迈络思是做网络的,但是我们起家是做虚拟机。之后我们以太网做到了端到端,目前大家在数据中心用的比较多的还是万兆居多,我们现在做25G及以上的网络是我们绝对领先的技术,在早期40G网络,90%以上40G网络都是我们网络,新的25G、100G,甚至下半年我们会出200G以太网,目前可以说在网络方面没有人能超过我们。
其实说到云计算,相信大家都是专家,从最开始做虚拟机一直到现在落地,包括今天这么大会议来讲,相信对广大用户也好,企业也好,都是可接受的,并且在实施中。那么迈络思一个做网络的供应商,我们怎么打造一个高效云平台,这就是我今天要讲的东西。大家知道做云无论哪个阶段,第一步是做虚拟化,相信大家都体验到虚拟化好处了,但是所有东西都是双刃剑,虚拟化的问题是会带来其他的一些问题,比如性能会不可靠。虚拟化做云技术的时候我们总结了几个问题,第一是低效的网络协议,比如TTP是比较成熟的协议,起源于广域网,TTP是内核态的协议,对其所有处理要经过CPU做处理,它会有协议转换的消耗,但是在当时那个年代网络速度没有那么快,TTP协议延迟,如果大家熟悉的话,差不多是在220—250微妙延迟,微妙级延迟对于我们早几年的时候没有感觉,但是在研究或者从今天开始,SSD的普及,高速网络的普及,包括延迟的普及,大概我们会发现慢慢的200多微妙延迟会影响整体效能,为什么?大家知道现在SSD延迟也在微妙级别了,网络延迟一般也是在微妙,我们的网络是纳秒级别,如果大家发现网络卡在几十微妙的时候,TTP协议在200微妙以上,这时候大家发现真正影响性能的瓶颈就在协议本身,所以TTP协议未来会在高性能环境里面,TTP会变成瓶颈,所以就需要IDMA跑在你的以太网上提高效率。
大家知道在做虚拟化以后,有一个问题是通讯怎么办。从开始从零到一,用虚拟交换机解决从零到一,让它工作了,但是效率怎么样?你真正部署以后,虚拟交换机会变成你的瓶颈,它的性能没有那么高,会变成瓶颈。OpenStack就把计算虚拟化和我们网络做了很好的结合,上层虚拟机直接和底层网卡做映射,这样不经过虚拟机和内核,效率相当于访问了我的设备,虚拟化惩罚不到了。
另外大家都知道DPDK是很流行的开发语言包,DPDK初衷也是类似的东西,因为TTP也是制约了它的发展,我们通过DPDK可以更直接,更方便访问我们设备,我们会让上层DPDK访问的时候让效率更高效,这样同样达到裸机的效果,我们通过DPDK+PMD的结合,可以让效率进一步提升。大家可以看到在40G网络里,我们的链路可以到35.7GB,在云环境里,用了VXLAN卸载以后加上各种技术,到了37.5,同时不需要CPU,这时候大家会想到一个问题,我们一直讲云计算,最重要的就是计算,在没有采用这个技术之前,大家会发现你在分包、解包甚至协议处理的时候,会消耗你相当大的CPU,我们有一个分享的数据。我记得去年的时候,有一个厂商提到在万兆环境下,用来做分包的时候,会消耗CPU30%—40%,在这种情况下,能够用来做计算的就非常有限了。所以用了VXLAN之后,会CPU释放出来,不需要CPU,可以将35%的CPU释放出来,如果没有用VXLAN做的话,CPU会消耗35%,用了VXLAN以后,CPU不再很好,这也是我们主要的贡献。
还有一个叫ASAP2,ASAP大家比较熟,是尽可能快,我们ASAP2从字面来看我们是可以快到极致,这是我们自己开发新的技术,所谓加速交换包处理,在这个里面我们有几种方式,时间原因我只介绍几个,第一个是ASAP2VLAN卸载,我们把上层虚拟机和底层硬件做沟通,所有包处理,所有协议处理,都是通过网卡硬件本身直接做工作,这样效率得到提升。当然还有可以部分来做,比如有控制部分,还是做传统通过内核来控制,真正大量消耗CPU,这些我们都可以进行解决。
另外是DPDK加速的OVS,在我们认为的世界里,相当快的速度和SAP比,哪个孰高孰低?大家看到在第一个场景是1流,没有用XVLAN,几乎不消耗CPU,还有一种情况是2000流,用VXLAN可以到25MPPS,大家可以看到这两个差距很大,同时CPU消耗没有,但是在DPDK里还是要消耗CPU的,只比之前好一些,但是还是需要四个核。所以我们真正在云计算世界里,让计算做CPU该做的事。
下面看一下怎么加速我们的网络,因为刚才宋老师也提到存储,现在存储是不可避免的话题,所谓的网络三大件,网络本身我们做得很好,同时把CPU也能够释放CPU资源,我们再看存储有什么变化。我们做交换机实际上是这个领域比较成熟,有人说是红海,我觉得不是红海,整个新的架构和新的技术、应用出现,会对网络提出新的要求,这也是一个新的变化。我们的交换机是从芯片和交换机本身都是我们自己的,和市面上看到绝大多数的交换机,第一个是高带宽到极致,100G,低延迟在100纳秒,还有包括在丢包问题,我相信大家回去看一下,你们交换机做的时候都有丢包问题,但是我能告诉大家,我们交换机是不丢包的,在存储里面或者在云计算里面是能够提到效率很大的保障。大家知道丢包不是说不能接受,而是说会使你发了包要重新发,意味着对方接收的时候需要重新排列了组合,效率会降低,所以不丢包是最朴素的要求。
刚才提到存储,我们看一下OpenStack存储的加速,还是数据说话,可以看到TPPDI网络和RDMA加速以后性能有什么变化,我们可以看到同样网络下,性能会有6倍提升,其实6倍不止。为什么?如果你的PCI足够高的话,比如PCI16、32性能会进一步提升。另外在Ceph,大家看到用RDMA的时候性能也有三倍的提升。另外在Esasure里,它会消耗CPU,我们会把消耗CPU做运算的放在网卡里做,同时在分布式架构里让你的性能得到提升,成本降低的同时保证安全性。
前面讲了对网络的加速,对存储的加速,对CPU释放,再讲一下落地的东西,我相信所有的东西,落地一定要有易用性或者开放性,我们网络数据中心是开放网络,大家可以看到我们提供的文件,也可以在上面跑不同的操作系统,利用我们高性能,低带宽网络运行在这个环境里。这里面有几个抓图,这是我们的界面,因为我们和OpenStack结合已经很成熟了,所以我也不讲太多了。
最后有几个案例,大家知道微软从2012的时候就开始支持我们的RoCE了,利用RoCE在同样的情况下,性能和带宽有两倍提升。还有在腾讯,我相信关注云的应该在春节前,腾讯发布了新闻,在整个云计算排序里面,腾讯拿了第一名,第一个是比去年成绩提高了5.8倍,单节点性能提高33倍,在腾讯云里面有腾讯领头的,也有我们和IBM帮助腾讯的,这里面用的就是我们100G的网络。因为我们的东西虽然很先进,但是我们还比较小众,所以如果大家想了解我们的话可以关注公众号,我们把所有材料都放在公众号上了,大家也可以通过公众号留言,我们做进一步探讨和研究,我们也希望认识更多的朋友,在云计算方面做出我们更多的贡献。谢谢大家!