秒速赛车开奖:最后我们选择了自己做

2018-03-24 07:36| 发布者: | 查看: |

  秒速赛车开奖【IT168 资讯】11月 29日消息,以 新技术 · 新架构 · 新网络 为主题的 GNTC 全球网络技术大会 第二天,云和数据中心专场,阿里巴巴技术保障部高级网络专家曹捷发表了主题演讲。

  作为阿里巴巴网络架构团队目标是什么?Hyper scale、High performce、low latency、low cost我们认为越简单越好,简单才能快速普及和长期生存,如果做很复杂的网络,可能刚开始很有成就感,但慢慢就会被打败,经过多年数据积累我认为简单的才能活下去。所以下一个原则就是我们认为在数据中心的网络将来是智能化的大管道,网络就是管道,不会有过于复杂的功能和应用,秒速赛车开奖:管道就是快速的将水或者流量导出去,但是管道又不能够完全不可控,它的只能是体现在对于管道本身可靠性和可运营性的体现上。后面我会和大家分享一下怎么看待智能的管道。

  阿里网络从最开始千兆、万兆,到现在25G,以及到明年的100G,大概花了四年半近五年的时间,这个过程当中经历了很多次的技术迭代和很多次的试错,其中我们尝试过各种各样的数据中心解决方案,一个坑一个坑踩过来之后,现在决定把网络做到最简单,简单到什么呢?简单到一个网络里面只有一个路由协议,而且这个BCP路由协议没有任何扩展的协议组。我的网络在接入交换机就在最后的端口上,提供给服务器接入。

  13年和14年阿里第一次做网络架构的标准化,那时候实现了当时认为很厉害的事情,就是阿里所有网络将会是全自动的,交换机买过来装好插第一根网线年底我们实现了整个阿里数据中心的标准化建设,任何一个地方,不管北京、上海、深圳,还是在云南、成都,我们机房里数据中心的网络hope图完全一样,设备型号完全一样,设备配置也完全一样。

  过了一年下一次迭代我们要做超大规模的网络部署,什么是超大规模?14年的时候阿里巴巴最大的数据新单体规模只有2000台服务器,最大2000台,我们有几十个甚至上百个小的集群组成的整个阿里网络,这样一个分散式的管理让整个网络运维团队天天救火,不停的改造,不停的重建,所以第二年我们做了新的,我们做了3.5万台千兆服务器,只要一个集群就可以搞定这个数据中心。那时候我们部署了40G的骨干电路,以及万兆服务器接入。

  再后来,到了16年的时候我们开始面对最大的挑战是什么?那时候可能大家都面对着挑战,整个云计算发展非常快,阿里云发展非常快,他们对于网络的依赖远远超过过去阿里的电商或者像蚂蚁金服电子金融类的业务,他们和云计算没法比,云计算对网络的依赖非常深,他们当时给我们提出了一个非常明确的事情,我需要一个大规模可以迁移的网络,这个市面上有很多解决方案,最后我们选择了自己做,我们要选择一个通用的解决方法,不管来自于思科、华为,最后我们没有决定用他们的,决定自己做。

  第一次尝试自己做管控流量、管控手段等等应该说我们成功了,但是我们也失败了。为什么呢?我们成功是因为15年、16年的时候部署了这样的网络,这张网络部署规模不算小,到今天为止还有不少于10万个端口在线运行,但为什么说我们失败了?因为很快到了16年底就觉得我们的网络部可能以这样的方式继续演进下去,因为它将整个业务链条和技术网络耦合的太近,当时我们发现一个非常大的问题。

  举个例子,阿里云有大量的云产品,比如有OSS、ESS等等,他们做版本升级或者业务变更的时候是完全不会知会网络运维团队或者网络开发团队,但是你发现你要管理所有底层资源,上层资源使用者做变更不告诉你,逻辑链条是天然断裂的,所以你每天面临着第二天早上有人打电话合说变更以后的产品不能运行了,然后你反驳他你又没告诉我,我下面还要调整。我发现除非你将整个网络作为产品的一部分,专门给阿里云量身订制,否则作为阿里通用的平台没有办法和业务解耦在一起。当时我们的策略是解耦、简单化,我们干脆提出来所有的东西都阿里云自己做,所以阿里云在组织架构上做了调整,有了专门的虚拟网络团队和物理网络团队,我们在虚拟网络之下成立了物理网络团队,我是物理网络团队的。上面也有专职构建虚拟网络。

  到了17年,也就是今年我们开始将我们的网络架构层,之前4.0V,17年设计成了5.0,5.0是作为25G引入了阿里,我们在服务器上大规模部署25G网卡,将所有叠加在网络上的复杂度全部去掉,在今天阿里网络当中是没有SDA。

  从之前四年时间的演进,规模和带宽会持续增长,阿里用了四年时间把1G提升到25G,骨干从10G链路提升到100G链。

<
>
相关文章
 
QQ在线咨询
售前咨询热线
400-800-8888
售后服务热线
400-800-8888
返回顶部