成熟网络基础设施是underlay(网络基础设施包括)
今天给各位分享成熟网络基础设施是underlay的知识,其中也会对网络基础设施包括进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
本文目录一览:
- 1、VxLAN协议详解
- 2、sdn网络中underlay和overlay网络的区别和联系各是什么?
- 3、【干货】说清楚讲明白:vxlan在openstack中的使用场景
- 4、SDN与NFV
- 5、SD-WAN基础架构包含哪些内容?
- 6、Overlay网络解决的3个问题
VxLAN协议详解
任何技术的产生,都有其特定的时代背景与实际需求,VXLAN正是为了解决云计算时代虚拟化中的一系列问题而产生的一项技术。那么我们先看看 VXLAN 到底要解决哪些问题。
对于同网段主机的通信而言,报文通过查询MAC表进行二层转发。服务器虚拟化后,数据中心中VM的数量比原有的物理机发生了数量级的增长,伴随而来的便是虚拟机网卡MAC地址数量的空前增加。一般而言,接入侧二层设备的规格较小,MAC地址表项规模已经无法满足快速增长的VM数量。
传统“二层+三层”的网络在应对这些要求时变得力不从心,虽然通过很多改进型的技术比如堆叠、SVF、TRILL等可以构建物理上的大二层网络,可以将虚拟机迁移的范围扩大。但是,构建物理上的大二层,难免需要对原来的网络做大的改动,并且大二层网络的范围依然会受到种种条件的限制。
为了解决这些问题,有很多方案被提出来,VxLAN就是其中之一。VxLAN 是 VMware、Cisco 等一众大型企业共同推出的,目前标准文档在 RFC7348 。
在介绍完VxLAN要解决的问题也就是技术背景之后,接下来正式阐述一下VxLAN的定义,也就是它到底是什么。
VXLAN 全称是 Virtual eXtensible Local Area Network ,虚拟可扩展的局域网。它是一种 Overlay 技术,***用L2 over L4(MAC-in-UDP)封装方式,是NVO3(Network Virtualization over Layer 3)中的一种网络虚拟化技术,将二层报文用三层协议进行封装,可实现虚拟的二层网络在三层范围内进行扩展,同时满足数据中心大二层虚拟迁移和多租户的需求。RFC7348上的介绍是这样的:
A framework for overlaying virtualized layer 2 networks over lay 3 networks.
针对大二层网络,VxLAN技术的出现很好的解决了云计算时代背景下数据中心在物理网络基础设施上实施服务器虚拟化的隔离和可扩展性问题:
VxLAN主要用于数据中心网络。VxLAN技术将已有的三层物理网络作为Underlay网络,在其上构建出虚拟的二层网络,即Overlay网络。Overlay网络通过Mac-in-UDP封装技术、利用Underlay网络提供的三层转发路径,实现租户二层报文跨越三层网络在不同的站点间传递。对于租户来说,Underlay网络是透明的,同一租户的不同站点就像是工作在一个局域网中。同时,在同一个物理网络上可以构建多个VxLAN网络,每个VxLAN网络由唯一的VNI标识,不同VxLAN之间互不影响,从而实现租户网络之间的隔离。
img src="" onerror="this.src='';this.onerror=null"/
如上图所示,VxLAN的典型网络模型中主要包含以下几个基本元素:
VXLAN是MAC in UDP的网络虚拟化技术,所以其报文封装是在原始以太报文之前添加了一个UDP头及VXLAN头封装:VTEP会将VM发出的原始报文封装成一个新的UDP报文,并使用物理网络的IP和MAC地址作为外层头,对网络中的其他设备只表现为封装后的参数。也就是说,网络中的其他设备看不到VM发送的原始报文。
如果服务器作为VTEP,那从服务器发送到接入设备的报文便是经过封装后的报文,这样,接入设备就不需要学习VM的MAC地址了,它只需要根据外层封装的报文头负责基本的三层转发就可以了。因此,虚拟机规模就不会受网络设备表项规格的限制了。
当然,如果网络设备作为VTEP,它还是需要学习VM的MAC地址。但是,从对报文进行封装的角度来说,网络设备的性能还是要比服务器强很多。
下图是 VxLAN 协议的报文,白色的部分是虚拟机发出的原始报文(二层帧,包含了 MAC 头部、IP 头部和传输层头部的报文),前面加了VxLAN 头部用来专门保存 VxLAN 相关的内容,再前面是标准的 UDP 协议头部(UDP 头部、IP 头部和 MAC 头部)用来在物理网路上传输报文。
从这个报文中可以看到三个部分:
img src="" onerror="this.src='';this.onerror=null"/
VxLAN报文各个部分解释如下:
从报文的封装可以看出,VXLAN头和原始二层报文是作为UDP报文的载荷存在的。在VTEP之间的网络设备,只需要根据Outer MAC Header和Outer IP Header进行转发,利用UDP Source Port进行负载分担,这一过程,与转发普通的IP报文完全相同。这样,除了VTEP设备,现网的大量设备无需更换或升级即可支持VXLAN网络。
VxLAN协议比原始报文多出50字节的内容,这会降低网络链路传输有效数据的比例。此外,新增加的VXLAN报文封装也引入了一个问题,即MTU值的设置。一般来说,虚拟机的默认MTU为1500 Bytes,也就是说原始以太网报文最大为1500字节。这个报文在经过VTEP时,会封装上50字节的新报文头(VXLAN头8字节+UDP头8字节+外部IP头20字节+外部MAC头14字节),这样一来,整个报文长度达到了1550字节。而现有的VTEP设备,一般在解封装VXLAN报文时,要求VXLAN报文不能被分片,否则无***确解封装。这就要求VTEP之间的所有网络设备的MTU最小为 1550字节。如果中间设备的MTU值不方便进行更改,那么设置虚拟机的MTU值为1450,也可以暂时解决这个问题。
VxLAN头部最重要的是VNID字段,其他的保留字段主要是为了未来的扩展,很多厂商都会加以运用来实现自己组网的一些特性。
网络中存在多个VTEP,那么这其中哪些VTEP间需要建立VXLAN隧道呢?如前所述,通过VXLAN隧道,“二层域”可以突破物理上的界限,实现大二层网络中VM之间的通信。所以,连接在不同VTEP上的VM之间如果有“大二层”互通的需求,这两个VTEP之间就需要建立VXLAN隧道。换言之,同一大二层域内的VTEP之间都需要建立VXLAN隧道。
一般而言,隧道的建立不外乎手工方式和自动方式两种。
这种方式需要用户手动指定VXLAN隧道的源和目的IP地址分别为本端和对端VTEP的IP地址,也就是人为的在本端VTEP和对端VTEP之间建立静态VXLAN隧道。以华为CE系列交换机为例,以上配置是在NVE(Network Virtualization Edge)接口下完成的。配置过程如下:
其中,vni 5000 head-end peer-list 2.2.2.2和vni 5000 head-end peer-list 2.2.2.3的配置,表示属于VNI 5000的对端VTEP有两个,IP地址分别为2.2.2.2和2.2.2.3。根据这两条配置,VTEP上会生成如下所示的一张表:
根据上表中的Peer List,本端VTEP就可以知道属于同一VNI的对端VTEP都有哪些,这也就决定了同一大二层广播域的范围。当VTEP收到BUM(BroadcastUnknown-unicastMulticast,广播未知单播组播)报文时,会将报文***并发送给Peer List中所列的所有对端VTEP(这就好比广播报文在VLAN内广播)。因此,这张表也被称为“头端***列表”。当VTEP收到已知单播报文时,会根据VTEP上的MAC表来确定报文要从哪条VXLAN隧道走。而此时Peer List中所列的对端,则充当了MAC表中“出接口”的角色。在后面的报文转发流程中,你将会看到头端***列表是如何在VXLAN网络中指导报文进行转发的。
自动方式下VXLAN隧道的建立需要借助于其他的协议,例如通过BGP/E***(Ethernet Virtual Private Network)或ENDP(Enhanced Neighbor Discovery Protocol)发现远端VTEP后,自动在本端和远端VTEP之间建立VXLAN隧道。
通过上节的内容,我们大致了解 VxLAN 报文的发送过程。概括地说就是虚拟机的报文通过 VTEP 添加上 VxLAN 以及外部的UDP/IP报文头,然后发送出去,对方 VTEP 收到之后拆除 VxLAN 头部然后根据 VNI 把原始报文发送到目的虚拟机。
这个过程是双方已经知道所有通信所需信息的情况下的转发流程,但是在第一次通信之前还有很多问题有解决:
要回答这些问题,我们还是回到 VxLAN 协议报文上,看看一个完整的 VxLAN 报文需要哪些信息。
总结一下,一个 VxLAN 报文需要确定两个地址信息:目的虚拟机的 MAC 地址和目的 VTEP 的 IP 地址,如果 VNI 也是动态感知的,那么 VTEP 就需要一个三元组:
(内层目的虚机MAC, VNI, 外层目的VTEP IP)
组成为控制平面的表来记录对端地址可达情况。VXLAN有着与传统以太网非常相似的MAC学习机制,当VTEP接收到VXLAN报文后,会记录源VTEP的IP、虚拟机MAC和VNI到本地MAC表中,这样当VTEP接收到目的MAC为此虚拟机的MAC时,就可以进行VXLAN封装并转发。VXLAN学习地址的时候仍然保存着二层协议的特征,节点之间不会周期性的交换各自的转发表。对于不认识的MAC地址,VXLAN一般依靠组播或控制中心来获取路径信息。组播的概念是同个 VxLAN 网络的 VTEP 加入到同一个组播网络,如果需要知道以上信息,就在组内发送多播来查询;控制中心的概念是在某个集中式的地方保存了所有虚拟机的上述信息,自动化告知 VTEP 它需要的信息。
每个多播组对应一个多播IP地址,vtep 建立的时候会通过配置加入到多播组(具体做法取决于实现),往这个多播IP地址发送的报文会发给多播组的所有主机。为什么要使用多播?因为vxlan的底层网络是三层的,广播地址无法穿越三层网络,要给vxlan 网络所有vtep发送报文只能通过多播。 通过组播的方式承载ARP的广播报文可以实现整个VxLAN网络下的地址解析以及VSI的MAC地址学习,在这个过程中,只需要有一次多播,因为VTEP有自动学习的能力,后续的报文都是通过单播直接发送的。也可以看到,多播报文非常浪费,每次的多播其实只有一个报文是有效的,如果某个多播组的 vtep 数量很多,这个浪费是非常大的。但是多播组也有它的实现起来比较简单,不需要中心化的控制,只要底层网络支持多播,只需配置好多播组就能自动发现了。因为并不是所有的网络设备都支持多播,再加上多播方式带来的报文浪费,在实际生产中这种方式很少用到。综上,VXLAN和传统VLAN网络数据平面一样,数据经过未知单播泛洪-MAC表项及ARP表项建立-单播转发的过程,我们称之为自学习模式。但自学习方式过于简单,其大量的泛洪报文以及无法智能调整的缺点,使得这样的控制平面构建方式不适合SDN网络。
img src="" onerror="this.src='';this.onerror=null"/
VTEP发送报文最关键的就是知道对方虚拟机的 MAC 地址和虚拟机所在主机的 VTEP IP 地址,如果实现知道这两个信息,那么就不需要多播了。SDN最大的特点就是转控分离,集中控制。按照这个指导思想,将控制功能单独剥离出来成为一个单独的设备便是很自然的事了。这个设备就是 Controller。Controller可以是一个或者一组硬件设备,也可以是一套软件。Controller与网络中所有设备建立连接,整个VXLAN网络的数据转发都由Controller来管理。Controller与设备连接的接口称为南向接口,可以使用OpenFlow、Netconf等协议;对用户提供服务的接口称为北向接口,也可以提供API以便与其他管理平台对接或进行深度开发。基于Controller的南向接口,可以通过OpenFlow或OVSDB协议的方式向VTEP设备下发远端MAC地址表项。具体不在这里进行展开讲述。
img src="" onerror="this.src='';this.onerror=null"/
前面描述的报文转发过程都是已知单播报文转发,如果VTEP收到一个未知地址的BUM报文如何处理呢。与传统以太网BUM报文转发类似,VTEP会通过泛洪的方式转发流量。BUM(Broadcast, Unknown-unicast, Multicast)即广播、未知单播、组播流量。根据对泛洪流量的***方式不同可分为单播路由方式(头端***)和组播路由方式(核心***)两种。
在头端***方式下,VTEP负责***报文,***用单播方式将***后的报文通过本地接口发送给本地站点,并通过VXLAN隧道发送给VXLAN内的所有远端VTEP。
如下图所示,当VTEP 1上的VM 1发出BUM报文后,VTEP 1判断数据所属的VXLAN,通过该VXLAN内所有本地接口和VXLAN Tunnel转发报文。通过VXLAN Tunnel转发报文时,封装VXLAN头、UDP头和IP头,将泛洪报文封装于单播报文中,发送到VXLAN内的所有远端VTEP。
远端VTEP收到VXLAN报文后,解封装报文,将原始数据在本地站点的VXLAN内泛洪。为避免环路,远端VTEP从VXLAN隧道上接收到报文后,不会再将其泛洪到其他的VXLAN隧道。
img src="" onerror="this.src='';this.onerror=null"/
通过头端***完成BUM报文的广播,不需要依赖组播路由协议。
组播路由方式的组网中同一个VXLAN内的所有VTEP都加入同一个组播组,利用组播路由协议(如PIM)在IP网络上为该组播建立组播转发表项,VTEP上相应生成一个组播隧道。
与头端***方式不同,当VTEP 1上的VM 1发出BUM报文后,VTEP 1不仅在本地站点内泛洪,还会为其封装组播目的IP地址,封装后的报文根据已建立的组播转发表项转发到IP网络。
在组播报文到达IP网络中的中间设备时,该设备根据已建立的组播表项对报文进行***并转发。
远端VTEP(VTEP 2和VTEP 3)接收到报文后,解封装报文,将原始的数据帧在本地站点的指定VXLAN泛洪。为了避免环路,远端VTEP从VXLAN隧道上接收到报文后,不会再将其泛洪到其他的VXLAN隧道。
由于泛洪流量使用了组播技术,所以整个组网中的网络设备需要支持组播路由协议(如PIM等)来建立组播路径以便组播报文转发。
sdn网络中underlay和overlay网络的区别和联系各是什么?
sdn网络中underlay和overlay网络的区别:
1、概念不同
underlay是传统单层网络,是当前数据中心网络基础转发架构的网络,而overlay是一层逻辑网络,指通过控制协议对边缘的网络设备进行网络构建和扩展。
联系:
underlay网络与overlay网络相互独立而又相互联系。
1、overlay网络使用underlay网络点对点传递报文
2、报文如何传递到overlay网络的目的节点完全取决于underlay网络的控制平面和数据平面
3、报文在overlay网络出入的节点处理则完全由overlay网络的封装协议来决定
4、Overlay网络也是一个网络,是建立在Underlay网络之上的网络
5、Overlay网络的节点通过虚拟的或逻辑的链接进行通信,每一个虚拟的或逻辑的链接对应于Underlay网络的一条路径(Path),由多个前后衔接的链接组成。
SDN的相关概念:
软件定义网络(Software Defined Network, SDN ),是Emulex网络一种新型网络创新架构,是网络虚拟化的一种实现方式,其核心技术OpenFlow通过将网络设备控制面与数据面分离开来,从而实现了网络流量的灵活控制,使网络作为管道变得更加智能。
【干货】说清楚讲明白:vxlan在openstack中的使用场景
一、前言
介绍前,首先讲一下网络中underlay和overlay的概念。underlay指的是物理网络层,overlay是指在物理网络层之上的逻辑网络或者又称为虚拟网络。overlay是建立在underlay的基础上,需要物理网络中的设备两两互联,overlay的出现突破了underlay的物理局限性,使得网络的架构更为灵活。
以vlan为例,在underlay环境下不同网络的设备需要连接至不同的交换机下,如果要改变设备所属的网络,则要调整设备的连线。引入vlan后,调整设备所属网络只需要将设备加入目标vlan下,避免了设备的连线调整。
二、云环境下vlan的痛点
SDN与NFV
VNF Descriptor (VNFD): 属于TOSCA标准的YMAL格式配置模板,主要描述了实例化一个VNF所需要的***信息以及操作行为,主要用于VNF实例化以及生命周期管理。
NFV即Network Functions Virtualization(网络功能虚拟化),就是将传统的CT业务部署到云平台上(云平台是指将物理硬件虚拟化所形成的虚拟机平台,能够承载CT和IT应用),从而实现软硬件解耦合。
NFV的本质: 络设备的IT化和云化
在NFV架构下,以下哪些是IMS切新平台及虚拟化的价值? abc
A 推动TTM大幅下降(Time To Market)
B 降低CAPEX/OPEX
C 提升网络灵活性和开放性
D 增加IMS系统新特性XXXXXXXXX
cordless telephone CT
VXLAN隧道支持跨数据中心建立
SDN云数据中心场景使用VXLAN作为转发隧道,对于BUM报文设备不会向所有的VXLAN隧道泛洪。
VXLAN集中式***不适合大型的数据中心。
VXLAN隧道支持跨数据中心建立
在SDN云数据中心场景中,AC控制器通过什么协议向underlay网络中的设备下发配置? Netconf
在SDN云网一体化场景中,AC控制器通过什么协议和OpenStack的Neutron实现对接? Restful
BUM(Broadcast 广播,unknown unicast, multicast)报文
01 SDN概述与发展趋势
8.SDN网络与传统IP网络的区别?
SDN利用控制转发相互分离从架构上解决根本问题:让网络敏捷起来,更快的部署新业务与快速定位故障点。***用***集中和统一调度、能力开放的策略;让软件来干硬件的活;
02 DCI: Data Center interconnect, 用于数据中心的互联网络
1什么是DCI?
未来超过80%的业务将部署在云上 我们云数据中心需要基于用户体验进行层次化布局,而网络则需要以数据中心为中心组网进行重构,在这样的大背景下,DCI网络孕育而生。
DCI:Data center interconnect 指的是用于数据中心之间互联的网络,实现以数据中心为中心组网的基础承载网。
2为什么需要新建DCI网络?
高扩展性、低成本 ***丰富 温度适宜等条件使得云数据中心建设位置要求
某运营商新建大型云数据中心与传统骨干网位置不重合
云业务对网络要求
1云计算对时延有非常严格的要求,如跨DC同步计算、虚拟机热迁移等业务要求都在10ms以下
2 DC间流量具有突发性和不均衡性,需***用SDN计数进行实时智能调控,而现有网络复杂。新技术难部署。
------很难重用现有骨干网,需要新建DCI网络。
3给予SDN的DCI方案总览
顶层端到端协同,实现包含DC云与DC承载网的云网***的一站式提供和端到端业务自动化协同发放。总的来说在多地区 多运营商部署多个数据中心的方式 目前已经成为了互联网行业普遍认可的最有效的解决用户覆盖提高用户业务体验的方案,建设并运营一张安全可靠、可灵活调度的多数据中心互联网络(DCI网络),也成为了各大互联网公司在基础架构方面的工作之重,DCI建成后 可以为宽带 4/3G用户提供更好的访问体验外另一方面可以为互联网公司***企业客户的云提供给更好的承载服务。
现在DCI面临的实际问题:网络不灵活难以跟住业务快速迭代的步伐、链路利用率较低 以及居高不下的OPEX压力等。华为SDN DCI 整体解决方案可以支撑云数据中心业务的端到端的运营,整体架构包括承载层和控制层,需要在网络基础承载层上引入部署SDN的控制层,
控制层是网络的业务发放管理平台和网络智能控制中心,该层主要功能部件为:
业务发放平台:提供业务自动化入口实现租户业务自助发放以及网络***状态的可视个运维管理入口
业务协同平台:DCI业务需求分解和DC和IDC的协同实现端到端的跨控制器***的协同分解
云平台:接受业务发放平台的业务分解,进行DC运业务分解和协同,实现DC的内存储 计算和网络的协同
DC控制器:接受OpenStack业务分解同一控制DC的NVE和VxLAN GW 实现DC内网络自动部署和控制
DCI控制器:接受业务协同平台***的分解,实现Underlay网络部署的自动化和网络流量的智能优化
流量***集工具、调优策略的输入、流量***集组件可以基于端口TE隧道进行流量***集和分析并提供网络流量可视化界面
DCI骨干网解决方案承载层是租户业务的承载实体负责跨DC网络的连接以及业务宽带和SLA保证,骨干网支持VxLAN技术提供了大二层组网的能力,能够跨越广域网和多个物理DC构建Vdc网络,实现跨区域的***节点的互备和虚机动态迁移,有效提升了DC云***的利用效率,骨干网部署业界广泛使用的MPLS TE流量工程技术为租户业务提供端到端的宽带保证,提升了网络***的利用效率,特别是提供了基于租户和业务的差异化的服务能力,网络承载支持***用Overlay技术,Overlay业务网络基于云业务驱动支持快速的业务开通 Underlay物理网络按需提供网络***,实现端到端的SLA保障和智能流量的优化,目前IP Core网络中存在如下一些流量调整需求:实现IGW出口、DC出口的流量均衡 降低不同ISP网间费用的结算 提升VIP用户体验 针对这些需求 当前主要依赖于手工调整BGP路由策略 :
1监控链路带宽利用率
2识别出需要调整的流
3基于流制作BGP策略下发给设别
4循环操作,直到流量符合期望目标的要求
4 智能流量调优方案:RR+方案
手工方法不能实时调整,耗时长、配置和维护复杂问题,RR+方案用于解决这问题。
RR+方案在IP core现网中加入SDN Controller,实现集中控制,智能化调优
RR+可以带来什么?
1最大化IGW带宽利用率均衡链路间流量的分布,降低网间结算费用,不同客户提供不同SLA服务
2自动调整流量,取代复杂的手工操作
3基于标准BGP通讯,可以和现网设备平滑兼容。
5什么时PCE+方案 Path Computation Element
路由转发用最短路径算法不考虑带宽,存在利用率低的问题 PCE+为了解决这一问题
PCE+通过在网络中部署PCE server(就是SDN Controller),使用StatefulPCE技术,为 MPLS TE LSP集中算路。
使网络带宽***使用尽量达..到最优。该架构方案中需要新部署的网元是PCE Server,转发设备为 PCE Client。PCE Client需要计算LSP时会向PCE Server发出计算请求,server计算后结果反馈给client,client然后进行LSP隧道建立。
思考:什么是DCI?
DCI即Data center interconnect 指的是用于数据中心之间互联的网络 DCI网络正是实现“以数据为中心的中心组网”的基础承载网。
03 文档 SDN网络解决方案
NFV (Network Function Virtulization)***用虚拟化技术,将传统电信设备的软件和硬件解耦,基于通用计算、存储、网络设备实现电信网络功能,提升管理和维护效率,增强系统灵活性
SDN关键特征:集中控制、优化全局效率;开放接口、加快业务上线;网络抽象,屏蔽底层差异
NFV关键特征:上层业务云化, 底层硬件标准化,分层运营,加快业务上线与创新
nfv — 4-7层
sdn — 1-3层 物理、数据、网络
SDN主要技术流派:ONF (Open networking foundation), IETF, 大T
PCEP(Path Computation Element Protocol)协议
ONOS -- Open-Source SDN Stack -- ONF
OpenDaylight -- IETF -- Cisco, 基于XML Schema实现SDN
华为是NFV担任职位、贡献文稿最多的Vendor
RAN:无线接入网(Radio Access Network)
可以利用华为私有MSCP(类似OPENFLOW)进行南向设备的控制
基于MBH虚拟接入解决方案,简化运维
01NFV技术概述与发展趋势
1CT当前面临的结构性挑战
增收方面:用户饱和,传统业务下滑
节流方面:CT投入成本下降,IT部分的投入从2002年6%增加到2013年13%,
创新方面:CT界一年5个创新 IT界32000倍
商用速度:CT每个月6个上市 IT每小时12个
什么是NFV?
NFV (Network Function Virtualization) 网络功能虚拟化,ETSI组织下组建的。
希望通过***用通用服务器 交换机和存储设备实现传统电信网络的功能。通过IT的虚拟化技术,许多类型的网络设备可以合并到工业界标准中,servers switchs storages 需要用软件实现网络功能并能在一系列工业标准服务器硬件上运行,可以根据需要迁移,实例化部署在网络的不同位置而不需要部署新设备,需要大容量Server存储和大容量以太网 不同应用以软件形式远程自动部署在统一的基础设施上。
三个关键点:软硬件解耦 开放 自动化
2NFV将IP基因融入电信网络
传统电信网软硬件绑定,更新困难,管理维护困难。***用虚拟化技术和云计算的网络,硬件***用标准的服务器 存储设备和交换机,虚拟化之后 上层业务通过软件形式运行在统一的标准的硬件基础之上 。
虚拟化后的网络好处:易于更新、硬件通用化支持异构,***归一 简化管理与运维
3NFV正走向成熟
2015~2016年稳步爬升 趋于成熟
1.NNFV生态系统:
ETSI在2012年成立了 NFV ISG来研究网络功能虚拟化
随后,涌现了一批NFV的开源组织,比如OPNFV,OpenStack
NFV产业联盟,秉承开发、创新、协同、落地的宗旨,集多长家和合作伙伴进行联合创新,成为开放联盟的引领者。
2.NFV框架
NFV框架主要包括3大组件:NFVI、VNF、和MANO解释:
框架中最底层的是硬件,包括计算、存储、和网络***
往上的云操作系统,完成虚拟化和云化的相关的功能,硬件和云操作系统成为NFVI。
I指的是instruction,设施的意思,这些设都是有VIM来管理。
在往上是虚拟网路功能,比如vIMS提供IMS的语音业务,vEPC提供4G的数据网络功能。
虚拟网络功能由VNFM来管理,提供VNF的声明周期管理。
在往上是网络管理层及网管,网管我们可以配套NFVO进行网络业务生命周期的管理
3.NFV三大组件的关键要求
【1】组件MANO:包括NFVO(网络业务生命周期管理)、VNFM和VIM,
要求VNFM适配不同厂商NFVO和VIM;并且MANO系统(NFVO+VNFM+VIM)应该尽量减少对现有的OSS/BSS的冲击。比如要求MANO支持和现有传统平台(如U2000)的对接
【2】组件VNF(虚拟化网络功能):要求它可以运行在不同厂商的NFVI;
对应传统的电信业务网络,每个物理网元映射为一个虚拟网元VNF。
【3】组件NFVI-云操作系统要求优选基于OpenStack的云操作系统
将物理计算/存储/交换网络***通过虚拟化计算转换为虚拟的计算/存储/交换网络***
【4】组件NFVI-硬件
要求它优选具有虚拟化辅助功能的芯片的COTS
同时具备高IOPS与高可靠性的磁阵
低RAID等级的磁阵建议冗余组网
03 FV关键能力
4.高可靠性
应用层、云操作系统层、硬件层都有相应的冗余机制。
应用层高可靠性可以通过主备和负荷分担方式实现主备VM之间的冗余。确保应用层会话0中断,99.999%的可用性。
云操作系统的可靠性可以通过虚拟机快速重建冗余机制来实现。
硬件层高可靠性主要通过族化以及物料冗余机制来实现计算、存储、网络等硬件设备的冗余
硬件层、VM层、业务层各层可靠性各自独立,高度互补确保整体可用性。
5.高性能
NFV业界最权威的评估公司SPECvirt。华为的FusionSphere性能得分为4.6,排第一。
呼叫处理方面华为的FusionSphere比第二名的Vmware高17%。
高性能技术的关键技术:NUMA亲和性、CPU绑定、DPDK、透明巨页、虚拟中断优化等
6.NFV存在的问题
(1)标准不成熟,技术架构实现上有分歧;
(2)多供应商、集成复杂。
(3)部件兼容性风险大。
(4)NFV工程难度大。
(5)网络功能虚拟化技术滞后
(6)虚拟化可靠性不足。传统电信要求99.999%可靠性
SD-WAN基础架构包含哪些内容?
SD-WAN的基础架构主要包括网络层、业务层、控制层、管理层这四个部分。网络层包括Underlay(由各类物理设备构成,通过使用路由协议保证其设备之间的IP连通性的承载网络)。业务层是根据第三方BSS/OSS根据业务功能需要,借助网络控制器的北向开放API,实现SD-WAN方案的集成和界面的灵活定制。控制层是“软件定义”的核心,主要组件是网络控制器,具有业务编排、网络控制和网络管理功能。管理层中SD-WAN 网络控制器在整个体系结构中处于核心位置,通过不同的接口协议实现与网络层和业务层之间的交互。通过Teridion的服务,埃科锐将以快速、最小的数据包延迟和数据包丢失的方式为企业提供SD-WAN技术。 还有不清楚的可以自己百度。
Overlay网络解决的3个问题
来源于: 为什么集群需要overlay网络?
Overlay 网络建立在另一个计算机网络之上的虚拟网络(不能独立出现),Overlay 底层依赖的网络是 Underlay 网络。
Underlay 网络是专门用来承载用户 IP 流量的基础架构层,它与 Overlay 网络之间的关系有点类似物理机和虚拟机。Underlay 网络和物理机都是真正存在的实体,它们分别对应着真实存在的网络设备和计算设备,而 Overlay 网络和虚拟机都是依托在下层实体使用软件虚拟出来的层级。
在实践中我们一般使用虚拟局域网扩展技术VxLAN(Virtual Extensible LAN)组建 Overlay 网络。VxLAN 使用虚拟隧道端点VTEP (Virtual Tunnel End Point)设备对服务器发出和收到的数据包进行二次封装和解封。
两台物理机可以通过三层的 IP 网络互相访问:上图中两个 VTEP 会相互连接并获得网络中的 MAC 地址、IP 地址等信息,例如,服务器 1 中的 VTEP 需要知道想要访问绿***络中的 10.0.0.2 虚拟机需要先访问 IP 地址为 204.79.1***.200 的服务器 2。这些配置可以被网络管理员手动配置、自动学习、也可以通过上层的管理器设置。
当绿色的 10.0.0.1 虚拟机想要向绿色的 10.0.0.2 发送数据时,经过以下步骤:
1) 绿色的 10.0.0.1 会将 IP 数据包发送给 VTEP;
2) 服务器 1 的 VTEP 收到 10.0.0.1 发送的数据包后;
a) 从收到的 IP 数据包中获取目的虚拟机的 MAC 地址;
b) 在本地的转发表中查找该 MAC 地址所在服务器的 IP 地址,即 204.79.1***.200;
c) 将绿色虚拟机所在的虚拟网络标识符(VxLAN Network Identifier、VNI)以及原始的 IP 数据包作为负载,构建新的 UDP 数据包;
d) 将新的 UDP 数据包发送到网络中;
3) 服务器 2 的 VTEP 收到 UDP 数据包后;
a) 去掉 UDP 数据包中的协议头;
b) 查看数据包中 VNI;
c) 将 IP 数据包转发给目标的绿色服务器 10.0.0.2;
4) 绿色的 10.0.0.2 会收到绿色服务器 10.0.0.1 发送的数据包。
笔记:以上步骤中的VNI(VxLAN Network Identifier)是干嘛的? 2) c) 和3) b) 中vni做了什么处理?整个过程中VTEP起到***的重要性。
在数据包的传输过程中,通信的双方都不知道底层网络做的这些转换,它们认为两者可以通过二层的网络互相访问, 但是实际上经过了三层 IP 网络的中转,通过 VTEP 之间建立的隧道实现了连通。 除了 VxLAN 之外,Overlay 网络还有很多实现方案,不过也都大同小异。Overlay 网络虽然能够利用底层网络在多数据中心之间组成二层网络,但是它的封包和拆包过程也会带来额外开销,所以 为什么我们的集群需要 Overlay 网络呢,本文将介绍 Overlay 网络解决的三个问题 :
1) 云计算中集群内的、跨集群的或者数据中心间的 虚拟机和实例的迁移 比较常见;
2) 单个集群中的虚拟机规模可能非常大, 大量的 MAC 地址和 ARP 请求会为网络设备带来巨大的压力 ;
3) 传统的 网络隔离技术 VLAN 只能建立 4096 个虚拟网络 ,公有云以及大规模的虚拟化集群需要更多的虚拟网络才能满足网络隔离的需求;
Kuberentes 目前已经是容器编排领域的事实标准了,虽然很多传统行业仍然在使用物理机部署服务,但是越来越多的计算任务在未来都会跑在虚拟机上。 虚拟机迁移是将虚拟机从一个物理硬件设备移到另一个设备的过程,因为日常的更新维护,集群中的大规模虚拟机迁移是比较常见的事情 ,上千台物理机组成的大集群使得集群内的***调度变得更加容易,我们可以 通过虚拟机迁移来提高***的利用率、容忍虚拟机的错误并提高节点的可移植性 。
当虚拟机所在的宿主机因为维护或者其他原因宕机时,当前实例就需要迁移到其他的宿主机上, 为了保证业务不中断,我们需要保证迁移过程中的 IP 地址不变,因为 Overlay 是在网络层实现二层网络,所以多个物理机之间只要网络层可达就能组建虚拟的局域网, 虚拟机或者容器迁移后仍然处于同一个二层网络,也就不需要改变 IP 地址。
如上图所示,迁移后的虚拟机与其他的虚拟机虽然位于不同的数据中心,但是由于上述 两个数据中心之间可以通过 IP 协议连通,所以迁移后的虚拟机仍然可以通过 Overlay 网络与原集群的虚拟机组成二层网络 ,集群内部的主机也完全不清楚、不关心底层的网络架构,它们只知道不同虚拟机之间是可以连通的。
我们在 为什么 Mac 地址不需要全球唯一 曾经介绍过二层网络的通信需要依赖 MAC 地址,一个传统的二层网络需要网络设备中存储着从 IP 地址到 MAC 地址的转发表。
目前 Kuberentes 官方支持的最大集群为 5000 节点 ,如果这 5000 个节点中的每个节点都仅仅包含一个容器,这对于内部的网络设备其实没有太大的压力, 但是在实际情况下 5000 节点的集群中都包含几万甚至几十万个容器 , 当某个容器向集群中发送 ARP 请求,集群中的全部容器都会收到 ARP 请求,这时会带来极高的网络负载 。
在 使用 VxLAN 搭建的 Overlay 网络中 ,网络会将虚拟机发送的数据重新封装成 IP 数据包,这样网络只需要知道不同 VTEP 的 MAC 地址,由此可以 将 MAC 地址表项中的几十万条数据降低到几千条 , ARP 请求也只会在集群中的 VTEP 之间扩散 ,远端的 VTEP 将数据拆包后也仅会在本地广播,不会影响其他的 VTEP,虽然这对于集群中的网络设备仍然有较高的要求,但是已经极大地降低了核心网络设备的压力。
Overlay 网络其实与软件定义网络(Software-defined networking、SDN)密切相关,而 SDN 引入了数据平面和控制平面 ,其中 数据平面负责转发数据 ,而 控制平面负责计算并分发转发表 。VxLAN 的 RFC7348 中只定义了数据平面的内容,由该技术组成的网络可以通过传统的自学习模式学习网络中的 MAC 与 ARP 表项,但是在大规模的集群中,我们仍然需要引入控制平面分发路由转发表
大规模的数据中心往往都会对外提供云计算服务,同一个物理集群可能会被拆分成多个小块分配给不同的租户(Tenant), 因为二层网络的数据帧可能会进行广播,所以出于安全的考虑这些不同的租户之间需要进行网络隔离,避免租户之间的流量互相影响甚至恶意攻击 。传统的网络隔离会使用虚拟局域网技术(Virtual LAN、VLAN),VLAN 会使用 12 比特表示虚拟网络 ID,虚拟网络的上限是 4096 个(2的12次方)。
4096 个虚拟网络对于大规模的数据中心来说远远不够,VxLAN 会使用 24 比特的 VNI 表示虚拟网络个数,总共可以表示 16,777,216 个虚拟网络,这也就能满足数据中心多租户网络隔离的需求了。
更多的虚拟网络其实是 VxLAN 顺手带来的好处,它不应该成为使用 VxLAN 的决定性因素。 VLAN 协议的扩展协议 IEEE 802.1ad 允许我们在以太网帧中加入两个 802.1Q 的协议头,两个 VLAN ID 组成的 24 比特也可以表示 16,777,216 个虚拟网络 ,所以想要解决网络隔离不是使用 VxLAN 或者 Overlay 网络的充分条件。
今天的数据中心包含多个集群以及海量的物理机, Overlay 网络是虚拟机和底层网络设备之间的中间层,通过 Overlay 网络这一个中间层,我们可以解决虚拟机的迁移问题、降低二层核心网络设备的压力并提供更大规模的虚拟网络数量 :
在使用 VxLAN 构成二层网络中,虚拟机在不同集群、不同可用区和不同数据中心迁移后,仍然可以保证二层网络的可达性,这能够帮助我们保证线上业务的可用性、提升集群的***利用率、容忍虚拟机和节点的故障;
集群中虚拟机的规模可能是物理机的几十倍,与物理机构成的传统集群相比,虚拟机构成的集群包含的 MAC 地址数量可能多一两个数量级,网络设备很难承担如此大规模的二层网络请求,Overlay 网络通过 IP 封包和控制平面可以减少集群中的 MAC 地址表项和 ARP 请求;
VxLAN 的协议头使用 24 位的 VNI 表示虚拟网络,总共可以表示 1600 万的虚拟网络,我们可以为不同的虚拟网络单独分配网络带宽,满足多租户的网络隔离需求;
需要注意的是,Overlay 网络只是一种在物理网络上的虚拟网络,使用该技术并不能直接解决集群中的规模性等问题,而 VxLAN 也不是组建 Overlay 网络的唯一方法,在不同场景中我们可以考虑使用不同的技术,例如:NVGRE、GRE 等。到最后,我们还是来看一些比较开放的相关问题,有兴趣的读者可以仔细思考一下下面的问题:
VxLAN 将原始数据包封装成 UDP 在网络上分发,那么 NVGRE 和 STT 分别使用哪些方法传输数据呢?
在 Kubernetes 中部署 Overlay 网络应该使用什么技术或者软件?
关于成熟网络基础设施是underlay和网络基础设施包括的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。