数据中心网络架构演进(简述数据中心网络架构的发展趋势)

网络设计 870
本篇文章给大家谈谈数据中心网络架构演进,以及简述数据中心网络架构的发展趋势对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、践行AI战略:华为引领数据中心网络迈入人工智能时代

本篇文章给大家谈谈数据中心网络架构演进,以及简述数据中心网络架构的发展趋势对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

践行AI战略:华为引领数据中心网络迈入人工智能时代

AI正在成为企业助力决策、提升客户体验、重塑商业模式与生态系统、乃至整个数字化转型的关键驱动力。

但在崭新的AI时代,数据中心网络性能也正在成为AI算力以及整个AI商用进程发展的关键瓶颈,正面临诸多挑战。

为此,华为以“网络新引擎 AI赢未来”为主题发布了业界首款面向AI时代数据中心交换机CloudEngine 16800,将人工智能技术创新性的应用到数据中心交换机,引领数据中心网络迈入AI时代。

AI时代数据中心网络面临三大挑战

当前,数字化转型的持续推进,正在提速驱动数据量暴增;同时,语音/***等非结构化数据占比持续提高,庞大的数据量和处理难度已远超人类的处理能力,需要基于机器运算深度学习的AI算法来完成海量无效数据的筛选和有用信息的自动重组,从而获得高效的决策建议和智慧化的行为指引。

根据华为GIV 2025(Global Industry Vision)的预测,企业对AI的***用率将从2015年的16%增加到2025年86%,越来越多的企业将利用AI助力决策、重塑商业模式与生态系统、重建客户体验。

作为人工智能的“孵化工厂”,数据中心网络正成为AI等新型基础设施的核心。但与此同时,随着AI时代的到来,AI人工智能的算力也受到数据中心网络性能的影响,正在成为AI商用进程的一大瓶颈。

华为网络产品线总裁胡克文指出,AI时代的数据中心网络将面临以下三大挑战:

挑战1.AI算力。高性能数据中心集群对网络丢包异常敏感,未来的网络应该做到零丢包。但传统的以太网即使千分之一的丢包率,都将导致数据中心的AI算力只能发挥50%。

挑战2.大带宽。未来5年,数字洪水猛增近20倍,现有100GE的网络无法支撑。预计全球年新增数据量将从2018年的10ZB猛增到2025年180ZB(即1800亿TB),现有100GE为主的数据中心网络已无法支撑数据洪水的挑战。

挑战3.要面向自动驾驶网络的能力。随着数据中心服务器规模的增加,以及计算网络、存储网络和数据网络三网融合,传统人工运维手段已难以为继,亟需引入创新的技术提升智能化运维的能力,如何用新的技术去使能、把网络问题排查出来成为业界都在思考的问题。

华为定义AI时代数据中心交换机三大特征

从行业大势来看,随着以人工智能为引擎的第四次技术革命正将我们带入一个万物感知、万物互联、万物智能的智能世界,数据中心网络也必须从云时代向AI时代演进。在华为看来,数据中心需要一个自动驾驶的高性能网络来提升AI算力,帮助客户加速AI业务的运行。

那么,AI时代的数据中心网络究竟该如何建设呢?胡克文指出,“华为定义了AI时代数据中心交换机的三大特征:内嵌AI芯片、单槽48 x 400GE高密端口、能够向自动驾驶网络演进的能力。”

特征1.业界首款内嵌AI芯片数据中心交换机,100%发挥AI算力

从应用侧来看,刷脸支付的背后是上亿次图像信息的智能识别,深度 健康 诊断需要基于数千个算法模型进行分析,快捷网购体验离不开数百台服务器的智能计算。也就是说,新商业物种的诞生,产业的跨越式发展以及用户体验得以改变,强烈地依赖于人脸识别、辅助诊断、智能推荐等AI应用的发展。

但由于AI算力受到数据中心网络性能的影响,正在成为AI商用进程的关键瓶颈。为了最大化AI算力,存储介质演进到闪存盘,时延降低了不止100倍,计算领域通过***用GPU甚至专用的AI芯片将处理数据的能力提升了100倍以上。

CloudEngine 16800是业界首款搭载高性能AI芯片的数据中心交换机,承载独创的iLossLess智能无损交换算法,实现流量模型自适应自优化,从而在零丢包基础上获得更低时延和更高吞吐的网络性能,克服传统以太网丢包导致的算力损失,将AI算力从50%提升到100%,数据存储IOPS(Input/Output Operations Per Second)性能提升30%。

特征2.业界最高密度单槽位48 x 400GE,满足AI时代5倍流量增长需求

数据中心是互联网业务流量汇聚点,企业AI等新型业务驱动了数据中服务器从10G到25G甚至100G的切换,这就必然要求交换机支持400G接口,400GE接口标准化工作已经于2015年启动,目前针对数据中心应用已经完成标准化,400G时代已经来临。

集群的规模是数据中心架构演进的动力,经典的无阻塞CLOS理论支撑了数据中心服务器规模从千台、万台到今天10万台规模的发展,增大核心交换机容量是数据中心规模扩大的最常见手段。以一个1000T流量规模的数据中心组网为例,***用400GE技术,核心汇聚交换机需要5K个接口,相对100GE技术减少75%。

为此,CloudEngine 16800全面升级了硬件交换平台,在正交架构基础上,突破超高速信号传输、超强散热、高效供电等多项技术难题,不仅支持10G→40G→100G→400G端口平滑演进能力,还使得单槽位可提供业界最高密度48端口400GE线卡,单机提供业界最大的768端口400GE交换容量,交换能力高达业界平均的5倍,满足AI时代流量倍增需求。同时,CloudEngine 16800在PCB板材、工艺、散热,供电等多方面都进行了革命性的技术改进和创新,使得单比特功耗下降50%。

特征3.使能自动驾驶网络,秒级故障识别、分钟级故障自动定位

当数据中心为人工智能提供了充分的技术支撑去创新时,人工智能也给数据中心带来巨大利益,如借助telemetry等技术将异常信息送到集中的智能运维平台进行大数据分析,这极大提升了网络的运行和运维效率,降低运维难度和人力成本。但是当前计算和存储正在融合,数据中心服务器集群规模越来越大,分析的流量成千倍的增长,信息上报或者获取频度从分钟级到毫秒级,再加上信息的冗余,这些都使得智能运维平台的规模剧增,智能运维平台对性能压力不堪重负降低了处理的效率。如何减轻智能运维平台的压力,在最靠近服务器,最靠近数据的网络设备具有智能分析和决策功能,成为提升运维效率的关键。

CloudEngine 16800基于内置的AI芯片,可大幅度提升“网络边缘”即设备级的智能化水平,使得交换机具备本地推理和实时快速决策的能力;通过本地智能结合集中的FabricInsight网络分析器,构建分布式AI运维架构,可实现秒级故障识别和分钟级故障自动定位,使能“自动驾驶网络”加速到来。该架构还可大幅提升运维系统的灵活性和可部署性。

引领数据中心网络从云时代迈入AI时代

自2012年进入数据中心网络市场以来,目前华为已服务于全球6400+个用户,广泛部署在中国、欧洲、亚太、中东、非洲、拉美等全球各地,帮助互联网、金融、***、制造、能源、大企业等多个行业的客户实现了数字化转型。

2017年华为进入Gartner数据中心网络挑战者象限;2018年进入Forrester数据中心SDN网络硬件平台领导者;2013-2018年,全球数据中心交换机厂商中,华为连续六年复合增长率第一,发展势头强劲。

早在2012年,华为就以“云引擎,承未来”为主题,发布了CloudEngine 12800数据中心核心交换机,七年以来这款面向云时代的交换机很好的支撑了数据中心业务弹性伸缩、自动化部署等核心诉求。

而随着本次华为率先将AI技术引入数据中心交换机、并推出面向AI时代的数据中心交换机CloudEngine 16800,华为也在引领数据中心网络从云时代迈入AI时代。

2018年,华为轮值董事长徐直军宣布:将人工智能定位为新的通用技术,并发布了人工智能发展战略,全面将人工智能技术引入到智能终端、云和网络等各个领域。而本次华为发布的业界首款面向AI时代数据中心交换机CloudEngine 16800,也是华为在网络领域持续践行AI战略的集中体现。

而作为华为AI发展战略以及全栈全场景AI解决方案的一个重要组成部分,CloudEngine 16800不仅是业界首款面向AI时代的数据中心交换机,还将重新定义数据中心网络的代际切换,助力客户使能和加速AI商用进程,引领数据中心真正进入AI时代。

同步网络架构演进的技术有哪些

同步网络架构演进的技术有高精度源头、高精度同步传输、高精度同步监测等关键技术。

高精度同步传输用于组织定时链路,是5G高精度同步组网的关键环节。目前来看,1588v2技术在电信网中应用规模大、成熟度高、互联互通性好,建议在现有配置的基础上通过优化实现细节提升精度。

包括打戳位置尽量靠近物理接口、提升打戳分辨率、提升系统实时时钟(RTC)同步精度、加强模块间协作、选取优质晶振等,这样有利于5G高精度时间同步网络的快速部署和成熟商用。此外,业界也比较关注白兔子(WR)、1588v2.1等其他高精度同步传输技术。

但无论是WR技术,还是新版本1588标准,均属于全新的高精度传输实现方案,相对于1588v2优化方案,实现难度大,目前暂时不作为高精度同步传输技术。

同步网络架构技术的意义:

根据应用场景和同步精度的不同,5G系统时间同步需求包括基本同步需求、站间协同增强同步需求以及5G所支撑的新业务提出的高精度同步需求。

系统基本同步需求是所有时分复用(TDD)制式无线通信系统的共性要求,主要是为避免上下行时隙干扰,从而需对基站空口时间偏差进行严格限定。对于4G TDD系统,***用固定子载波间隔15kHz,保护周期GP(Guard Period)配置单符号。

在一定覆盖范围内,其要求基站间时间偏差应小于3μs。5G系统均***用TDD制式,其具有子载波间隔可灵活扩展的特点,通过在GP中灵活配置多个符号的方式,使得基站间时间偏差要求仍为小于3μs,与4G TDD一致。

大数据时代数据中心布线系统发展趋势

大数据时代数据中心布线系统发展趋势

每天生活里面很多时候跟我们现在大数据的产生都是有影响的。在现有的3G以及下一代4G网络层面上,包括今后大量发展物联网的趋势,以及三网合一,所有的跟生活密切相关技术的发展,势必会影响数据流量大量的产生。大数据跟云计算还是有一定的关系,今天谈的不是怎么分析大数据,主题讲的是大数据背后需要什么样的网络和系统来支撑。

IT非常熟悉的专业人士,网络大量***用着IP网络。可以看到全球IP的增量,每年基于IP通信协议的,目前互联网行业电信、金融、***这些行业里面占数据流量比例增长速度越来越快,特别是目前互联网上的***流量使得数据增长速度更快。整个全球数据量,可以看到2015年和2010年之间所产生数据量的对比差别非常大。随着周边网络和应用技术的发展,势必会影响数据增长的速度远远超过以前所产生的数据流量。未来十年数据量是现有数据量的50倍左右,大家现在手机用的要么就是安卓,要是就是苹果的系统,大家用的都是智能手机,智能手机促进了移动互联网非常大的发展。从中国移动互联网预测可以看到,2013年和2012年增长已经70%、80%。

还有一点就是物联网,物联网跟网络有关吗?当然。物联网是一个应用方式,物联网有应用层、感知层。感知层从传感器市场中可以看到每年的增量大幅度增加,物联网市场规模从2010年到2015年,移动互联网大家都是操作终端产生的数据量,很多东西都是***用传感器的方式,不断的往数据中心传输数据的时候,它的数据量是惊人的。因为移动终端一个人控制一台,但是很多物联网所有的物体我们都在说万物物联,可以考虑到网络数据容量需要多大的存储才能满足要求。这些都会导致我们今天所谈的大数据,云计算相关问题的出现。

第一数据中心虚拟化技术和云计算,云计算是基于虚拟化技术所提供的IT的服务。虚拟化技术和云计算的服务模式为大数据产生提供了一些技术保障。快速发展的云计算服务应用也是形成我们大数据的一个比较大的推力。反过来看基于现在的状况网络上有什么样的变化,首先虚拟化技术是云计算技术的核心。服务器虚拟化是最早大量应用的技术。的当我们一台服务器变成虚拟化之后,里面的动态可以支撑很多应用程序,应用程序相互之间可以进行动态式的分布。当有设备进行建设的时候会把服务牵引到其他的服务器这是一个非常动态的过程。有一台机器可能支撑了传统服务器里面的二十倍或者几十倍的数据量。所有数据中心围绕数据进行,没有数据的数据中心是“房地产”,所以数据非常重要。

压力非常大的时候对布线系统有非常大的挑战,当服务器虚拟化的时候我们需要更加有弹性的网络设备,网络虚拟化也是一个非常重要的方式。当我们以前大量推数据中心,虚拟化会***用大二层网络架构支撑大数据或者云计算的需要。最终的好处是把网络架构减少之后,会让数据的传输设备与设备之间延时降到最低于这对于虚拟化数据城市是一个非常基础的要求。

大家可以看到核心网络设备比如交换机变成一个交换集群的时候,会发现连接关系非常复杂那么对于管理也是一个挑战。

数据中心网络连接大二层的方式,***用虚拟化的核心网络,我们主干里面越来越多***用万兆光纤连接。万兆解决方案有几种解决方案可以解决。

从网络趋势来看可以看到2013年40G到100G是越来越多的用户试水的一年。2013年以后万兆网络发展速度非常快。大家越来越的听到TOR,这是新的建设的方式,现在基于TOR方式更容易实现整机柜的交付。它的好处就要速度非常快。机柜内部到网络连接前面都做好,现场就是把机柜外面光纤主干部分和核心网络连接,就实现了数据中心快速部署的功能。

现在很多客户做500个机柜两个礼拜就可以做成。在做整个网络基础架构布线系统,桥架这些设计施工的时候,不影响机柜的交付,不需要机柜先到再做布线和相应安装。

整机柜交付的实例:包括这机柜、布线系统等等同时交付。刚才提到万兆介入层网络,万兆供大家选择的有:10G以太网数据中心主流服务器网卡。万兆里面光的5万卡会贵一些另外一些就是***P+网卡,光的网卡是***P+功耗差不多,大概是两三瓦左右。万兆的网络端口功耗相对比较大一些。当然有一些人跟我讲节能型的以太网自动唤醒功能,当服务器机柜没有那么大的数据量的时候数据很小。但是现在大家都在讲大数据,云计算的时候是希望用尽每一台服务器潜在的能力,这时候怎么能让它休眠呢。现在技术层面来讲,万兆功耗逐年下降,现在还没有达到特别理想的状态,还在观望。

光的技术上是没有问题,包括功耗和管理密度,还是距离也好,都占有非常大的优势,都没有问题。但是最大的问题就是价格偏贵。还有铜的,它的好处距离够了,100米,功耗是偏大,4到6瓦,前几年是十几瓦现在是6瓦左右比较普遍,还不是特别理想。

直径相对闭光纤粗一些,会占用空间。

基于刚才分析的万兆网络应用,可以大致做一个小结:光的技术OK,关键就是价格偏贵。第二个万兆功耗偏高,价格可能有一定的优势,目前来讲价格上面比光有优势。数据中心主干当接入层进入万兆主干就要用40G网络。主干里面,40G、100G主要用到HDA,多模光纤可以支持100米、50米,多膜光纤价格也有优势,会大量用在数据中心今后的机房里面。新的标准,特别是100G新的标准也正在变化。目前要建设40G、100G的连接只能***用单膜的光纤,4现在接入机房没办法等待铜缆。

为什么现在会***用MTP的方式呢?现在是万兆,当升级到40G和100G的时候,直接升级把两边面板和MTP取代,这对今后网络来讲需要有前端性的设计,这是目前大量使用MTP光纤的原因。如果不***用这个今后不可能升级到40G和100G的网络。

虚拟化网络有一个非常复杂的网络架构,对布置线部署是一个挑战。智能布线可以把你曾经恶梦般的网络有这样一个工具帮助你做的非常整洁,这就是智能基础设施的,罗森伯格的叫Pyxis系统,它的特点是由服务器、管理软件等组成的。核心是能够自动的帮你指引。根据ANSI/TIA五和ISO/IEC标准,两个标准的相同的要求:1、自动频测连接状态及更新记录

2、自动非授权操作产生报警功能

3、自动生成电子工作单

4、输出实时统计的报表

5、图形化(CAD)作端口物理位置定位

数据中心网络架构扁平化到两层的方式有何弊端?

虚拟化技术的普及给网络流量带来了新的压力,迫使IT部门重新审视现有的传统三层网络解决方案。这些分层网络的设计特性使得创建阻塞和延迟变得容易,而提供的冗余功能非常原始。

网络传统结构是路由器到中央交换机连接到分支开关。而网络扁平化是没有这个结构的,而是路由器直接到交换机,交换机到工作站,然后交换机连接到另一个交换机,而交换机也直接与工作站连接。如果您需要添加一个工作站,只需要增加一个交换机就好。扁平化取消了汇聚层,使施工简单,网络扩容简单了不少。

目前,思科、JUNIPER、甚至H3C已经提出将传统的数据中心网络结构从三层或多层降低到较低的层次。这种方法的优点和缺点是什么?适用场景的要求是什么?

聚合层交换比很容易过高,并且在高峰网络流量期间容易出现网络拥塞。收敛层交换机端口数量增加,价格高,数据中心成本增加。对于设备本身,其转发机制、计算能力,甚至更高的产品架构要求,设备损耗的老化速度更快。

在网上有一观点,扁平化的层次结构可以减少服务器的网络接口,这是数量的主要优势(节省资金),但是缺点是没有明确的层次,部署维护的复杂性也会相应提高。数据中心交换网络***用两层结构,企业网络/校园网***用三层或多层结构,主要由应用需求决定,取决于企业的应用程度。

数据中心网络架构演进的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于简述数据中心网络架构的发展趋势、数据中心网络架构演进的信息别忘了在本站进行查找喔。

扫码二维码