传统网络架构(传统网络架构的特点有缺陷)

网络设计 331
今天给各位分享传统网络架构的知识,其中也会对传统网络架构的特点有缺陷进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录一览: 1、从传统的公司网络架构迁移到完全融合网络后,很可能产生什么影响

今天给各位分享传统网络架构的知识,其中也会对传统网络架构的特点有缺陷进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

从传统的公司网络架构迁移到完全融合网络后,很可能产生什么影响

会形成共享的基础架构,因此只需管理一个网络影响。融合网络会在单个平台上和单个基础设施内联合不同的网络服务,比如流***、语音和数据。

网络架构是什么?

传统的网络架构:星型、环形、总线型,其实最重要的还是交换技术:以太网、令牌环和fddi、atm。

网络架构,是物理层面的。交换技术是一种信息传递技术,网络架构是交换技术的载体。

osi是一个开放性的通行系统互连参考模型,他是一个定义的非常好的协议规范。osi模型有7层结构,每层都可以有几个子层。七层都是什么应该知道吧。

什么是网络架构?

网络架构是进行通信连接的一种网络结构。

网络架构是为设计、构建和管理一个通信网络提供一个构架和技术基础的蓝图。网络构架定义了数据网络通信系统的每个方面,包括但不限于用户使用的接口类型、使用的网络协议和可能使用的网络布线的类型。

网络架构典型的有一个分层结构。分层是一种现代的网络设计原理,它将通信任务划分成很多更小的部分,每个部分完成一个特定的子任务和用小数量良好定义的方式与其它部分相结合。

扩展资料:

使用网络架构注意事项:

1、动态多路径

能够通过多个WAN链路对流量进行负载均衡并不是一项新功能。但是,在传统的WAN中,此功能很难配置,并且通常以静态方式将流量分配给给定的WAN链路。即使面对诸如拥塞链路之类的负面拥塞,也不能改变给定WAN链路的流量分配。

2、应用程序级别

如果应用程序的性能开始下降,因为该应用程序使用的托管虚拟化网络功能(VNF)的物理服务器的CPU利用率过高,则VNF可能会移动到利用率较低的服务器中。

3、能见度

有许多工具声称可以为网络组织提供对传统WAN的完全可见性,以便解决与网络和/或应用程序性能相关的问题。但是,无论是这些工具的缺陷还是网络组织使用的故障排除流程,***用新的WAN架构将使故障排除任务变得更加复杂。

参考资料来源:百度百科:LTE网络架构

一文看懂四种基本的神经网络架构

原文链接:

更多干货就在我的个人博客 欢迎关注

刚刚入门神经网络,往往会对众多的神经网络架构感到困惑,神经网络看起来复杂多样,但是这么多架构无非也就是三类,前馈神经网络,循环网络,对称连接网络,本文将介绍四种常见的神经网络,分别是CNN,RNN,DBN,GAN。通过这四种基本的神经网络架构,我们来对神经网络进行一定的了解。

神经网络是机器学习中的一种模型,是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。

一般来说,神经网络的架构可以分为三类:

前馈神经网络:

这是实际应用中最常见的神经网络类型。第一层是输入,最后一层是输出。如果有多个隐藏层,我们称之为“深度”神经网络。他们计算出一系列改变样本相似性的变换。各层神经元的活动是前一层活动的非线性函数。

循环网络:

循环网络在他们的连接图中定向了循环,这意味着你可以按照箭头回到你开始的地方。他们可以有复杂的动态,使其很难训练。他们更具有生物真实性。

循环网络的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。

循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。

对称连接网络:

对称连接网络有点像循环网络,但是单元之间的连接是对称的(它们在两个方向上权重相同)。比起循环网络,对称连接网络更容易分析。这个网络中有更多的限制,因为它们遵守能量函数定律。没有隐藏单元的对称连接网络被称为“Hopfield 网络”。有隐藏单元的对称连接的网络被称为玻尔兹曼机。

其实之前的帖子讲过一些关于感知机的内容,这里再复述一下。

首先还是这张图

这是一个M-P神经元

一个神经元有n个输入,每一个输入对应一个权值w,神经元内会对输入与权重做乘法后求和,求和的结果与偏置做差,最终将结果放入激活函数中,由激活函数给出最后的输出,输出往往是二进制的,0 状态代表抑制,1 状态代表激活。

可以把感知机看作是 n 维实例空间中的超平面决策面,对于超平面一侧的样本,感知器输出 1,对于另一侧的实例输出 0,这个决策超平面方程是 w⋅x=0。 那些可以被某一个超平面分割的正反样例集合称为线性可分(linearly separable)样例集合,它们就可以使用图中的感知机表示。

与、或、非问题都是线性可分的问题,使用一个有两输入的感知机能容易地表示,而异或并不是一个线性可分的问题,所以使用单层感知机是不行的,这时候就要使用多层感知机来解决疑惑问题了。

如果我们要训练一个感知机,应该怎么办呢?

我们会从随机的权值开始,反复地应用这个感知机到每个训练样例,只要它误分类样例就修改感知机的权值。重复这个过程,直到感知机正确分类所有的样例。每一步根据感知机训练法则来修改权值,也就是修改与输入 xi 对应的权 wi,法则如下:

这里 t 是当前训练样例的目标输出,o 是感知机的输出,η 是一个正的常数称为学习速率。学习速率的作用是缓和每一步调整权的程度,它通常被设为一个小的数值(例如 0.1),而且有时会使其随着权调整次数的增加而衰减。

多层感知机,或者说是多层神经网络无非就是在输入层与输出层之间加了多个隐藏层而已,后续的CNN,DBN等神经网络只不过是将重新设计了每一层的类型。感知机可以说是神经网络的基础,后续更为复杂的神经网络都离不开最简单的感知机的模型,

谈到机器学习,我们往往还会跟上一个词语,叫做模式识别,但是真实环境中的模式识别往往会出现各种问题。比如:

图像分割:真实场景中总是掺杂着其它物体。很难判断哪些部分属于同一个对象。对象的某些部分可以隐藏在其他对象的后面。

物体光照:像素的强度被光照强烈影响。

图像变形:物体可以以各种非仿射方式变形。例如,手写也可以有一个大的圆圈或只是一个尖头。

情景支持:物体所属类别通常由它们的使用方式来定义。例如,椅子是为了让人们坐在上面而设计的,因此它们具有各种各样的物理形状。

卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子***样层构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在CNN的一个卷积层中,通常包含若干个特征平面(featureMap),每个特征平面由一些矩形排列的的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子***样也叫做池化(pooling),通常有均值子***样(mean pooling)和最大值子***样(max pooling)两种形式。子***样可以看作一种特殊的卷积过程。卷积和子***样大大简化了模型复杂度,减少了模型的参数。

卷积神经网络由三部分构成。第一部分是输入层。第二部分由n个卷积层和池化层的组合组成。第三部分由一个全连结的多层感知机分类器构成。

这里举AlexNet为例:

·输入:224×224大小的图片,3通道

·第一层卷积:11×11大小的卷积核96个,每个GPU上48个。

·第一层max-pooling:2×2的核。

·第二层卷积:5×5卷积核256个,每个GPU上128个。

·第二层max-pooling:2×2的核。

·第三层卷积:与上一层是全连接,3*3的卷积核384个。分到两个GPU上个192个。

·第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。

·第五层卷积:3×3的卷积核256个,两个GPU上个128个。

·第五层max-pooling:2×2的核。

·第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。

·第二层全连接:4096维

·Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。

卷积神经网络在模式识别领域有着重要应用,当然这里只是对卷积神经网络做了最简单的讲解,卷积神经网络中仍然有很多知识,比如局部感受野,权值共享,多卷积核等内容,后续有机会再进行讲解。

传统的神经网络对于很多问题难以处理,比如你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNN能够对任何长度的序列数据进行处理。

这是一个简单的RNN的结构,可以看到隐藏层自己是可以跟自己进行连接的。

那么RNN为什么隐藏层能够看到上一刻的隐藏层的输出呢,其实我们把这个网络展开来开就很清晰了。

从上面的公式我们可以看出,循环层和全连接层的区别就是循环层多了一个权重矩阵 W。

如果反复把式2带入到式1,我们将得到:

在讲DBN之前,我们需要对DBN的基本组成单位有一定的了解,那就是RBM,受限玻尔兹曼机。

首先什么是玻尔兹曼机?

[图片上传失败...(image-d36b31-1519636788074)]

如图所示为一个玻尔兹曼机,其蓝色节点为隐层,白色节点为输入层。

玻尔兹曼机和递归神经网络相比,区别体现在以下几点:

1、递归神经网络本质是学习一个函数,因此有输入和输出层的概念,而玻尔兹曼机的用处在于学习一组数据的“内在表示”,因此其没有输出层的概念。

2、递归神经网络各节点链接为有向环,而玻尔兹曼机各节点连接成无向完全图。

而受限玻尔兹曼机是什么呢?

最简单的来说就是加入了限制,这个限制就是将完全图变成了二分图。即由一个显层和一个隐层构成,显层与隐层的神经元之间为双向全连接。

h表示隐藏层,v表示显层

在RBM中,任意两个相连的神经元之间有一个权值w表示其连接强度,每个神经元自身有一个偏置系数b(对显层神经元)和c(对隐层神经元)来表示其自身权重。

具体的公式推导在这里就不展示了

DBN是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和 P(Label|Observation)都做了评估,而判别模型仅仅而已评估了后者,也就是P(Label|Observation)。

DBN由多个限制玻尔兹曼机(Restricted Boltzmann Machines)层组成,一个典型的神经网络类型如图所示。这些网络被“限制”为一个可视层和一个隐层,层间存在连接,但层内的单元间不存在连接。隐层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。

生成对抗网络其实在之前的帖子中做过讲解,这里在说明一下。

生成对抗网络的目标在于生成,我们传统的网络结构往往都是判别模型,即判断一个样本的真实性。而生成模型能够根据所提供的样本生成类似的新样本,注意这些样本是由计算机学习而来的。

GAN一般由两个网络组成,生成模型网络,判别模型网络。

生成模型 G 捕捉样本数据的分布,用服从某一分布(均匀分布,高斯分布等)的噪声 z 生成一个类似真实训练数据的样本,追求效果是越像真实样本越好;判别模型 D 是一个二分类器,估计一个样本来自于训练数据(而非生成数据)的概率,如果样本来自于真实的训练数据,D 输出大概率,否则,D 输出小概率。

举个例子:生成网络 G 好比*** 制造团伙,专门制造*** ,判别网络 D 好比警察,专门检测使用的货币是真币还是*** ,G 的目标是想方设法生成和真币一样的货币,使得 D 判别不出来,D 的目标是想方设法检测出来 G 生成的*** 。

传统的判别网络:

生成对抗网络:

下面展示一个cDCGAN的例子(前面帖子中写过的)

生成网络

判别网络

最终结果,使用MNIST作为初始样本,通过学习后生成的数字,可以看到学习的效果还是不错的。

本文非常简单的介绍了四种神经网络的架构,CNN,RNN,DBN,GAN。当然也仅仅是简单的介绍,并没有深层次讲解其内涵。这四种神经网络的架构十分常见,应用也十分广泛。当然关于神经网络的知识,不可能几篇帖子就讲解完,这里知识讲解一些基础知识,帮助大家快速入(zhuang)门(bi)。后面的帖子将对深度自动编码器,Hopfield 网络长短期记忆网络(LSTM)进行讲解。

传统网络架构包括哪些设备

传统网络架构包括中央处理器、接入层交换机、汇聚层交换机和核心层交换机。

网络常见结构有哪些?

计算机网络的最主要的拓扑结构有总线型拓扑、环形拓扑、树形拓扑、星形拓扑、混合型拓扑以及网状拓扑。除了总线型、环型、星型还有树形、混合型和网状拓扑结构。

环形拓扑、星形拓扑、总线型拓扑是三个最基本的拓扑结构。在局域网中,使用最多的是星形结构。

1、总线型拓扑:

总线型拓扑是一种基于多点连接的拓扑结构,是将网络中的所有的设备通过相应的硬件接口直接连接在共同的传输介质上。总线拓扑结构使用一条所有PC都可访问的公共通道,每台PC只要连一条线缆即可。在总线型拓扑结构中,所有网上微机都通过相应的硬件接口直接连在总线上, 任何一个结点的信息都可以沿着总线向两个方向传输扩散,并且能被总线中任何一个结点所接收。

由于其信息向四周传播,类似于广播电台,故总线型网络也被称为广播式网络。 总线有一定的负载能力,因此,总线长度有一定限制,一条总线也只能连接一定数量的结点。 最著名的总线拓扑结构是以太网(Ethernet)。

总线布局的特点:结构简单灵活,非常便于扩充;可靠性高,网络响应速度快;设备量少、价格低、安装使用方便;共享***能力强,非常便于广播式工作,即一个结点发送所有结点都可接收。

在总线两端连接的器件称为端结器(末端阻抗匹配器、或终止器),主要与总线进行阻抗匹配,最大限度地吸收传送端部的能量,避免信号反射回总线产生不必要的干扰。

总线型网络结构是目前使用最广泛的结构,也是最传统的一种主流网络结构,适合于信息管理系统、办公自动化系统领域的应用。

2、环型拓扑:

环形网中各结点通过环路接口连在一条首尾相连的闭合环形通信线路中,就是把每台PC连接起来,数据沿着环依次通过每台PC直接到达目的地,环路上任何结点均可以请求发送信息。请求一旦被批准,便可以向环路发送信息。环形网中的数据可以是单向也可是双向传输。信息在每台设备上的延时时间是固定的。

由于环线公用,一个结点发出的信息必须穿越环中所有的环路接口,信息流中目的地址与环上某结点地址相符时,信息被该结点的环路接口所接收,而后信息继续流向下一环路接口,一直流回到发送该信息的环路接口结点为止。 特别适合实时控制的局域网系统。 在环行结构中每台PC都与另两台PC相连每台PC的接口适配器必须接收数据再传往另一台。因为两台PC之间都有电缆,所以能获得好的性能。 最著名的环形拓扑结构网络是令牌环网(Token Ring)。

3、树形拓扑结构:

树形拓扑从总线拓扑演变而来,形状像一棵倒置的树,顶端是树根,树根以下带分支,每个分支还可再带子分支。 它是总线型结构的扩展,它是在总线网上加上分支形成的,其传输介质可有多条分支,但不形成闭合回路,树形网是一种分层网,其结构可以对称,联系固定,具有一定容错能力,一般一个分支和结点的故障不影响另一分支结点的工作,任何一个结点送出的信息都可以传遍整个传输介质,也是广播式网络。

一般树形网上的链路相对具有一定的专用性,无须对原网做任何改动就可以扩充工作站。 它是一种层次结构,结点按层次连结,信息交换主要在上下结点之间进行,相邻结点或 同层结点之间一般不进行数据交换。把整个电缆连接成树型,树枝分层每个分至点都有一台计算机,数据依次往下传优点是布局灵活但是故障检测较为复杂,PC环不会影响全局。

4、星形拓扑结构:

星形拓扑结构是一种以中央节点为中心,把若干*** 节点连接起来的辐射式互联结构,各结点与中央结点通过点与点方式连接,中央结点执行集中式通信控制策略,因此中央结点相当复杂,负担也重。 这种结构适用于局域网,特别是近年来连接的局域网大都***用这种连接方式。

这种连接方式以双绞线或同轴电缆作连接线路。在中心放一台中心计算机,每个臂的端点放置一台PC,所有的数据包及报文通过中心计算机来通信,除了中心机外每台PC仅有一条连接,这种结构需要大量的电缆,星形拓扑可以看成一层的树形结构,不需要多层PC的访问权争用。星形拓扑结构在网络布线中较为常见。

以星形拓扑结构组网,其中任何两个站点要进行通信都要经过中央结点控制。中央节点的主要功能有:为需要通信的设备建立物理连接;为两台设备通信过程中维持这一通路;在完成通信或不成功时,拆除通道。

在文件服务器/工作站(File Servers/Workstation)局域网模式中,中心点为文件服务器,存放共享***。由于这种拓扑结构,中心点与多台工作站相连,为便于集中连线,目前多***用集线器(HUB)。

5、网状拓扑:

网状拓扑又称作无规则结构,结点之间的联结是任意的,没有规律。就是将多个子网或多个局域网连接起来构成网际拓扑结构。在一个子网中,集线器、中继器将多个设备连接起来,而桥接器、路由器及***则将子网连接起来。根据组网硬件不同,主要有三种网际拓扑。

(1)网状网:在一个大的区域内,用无线电通信连路连接一个大型网络时,网状网是最好的拓扑结构。通过路由器与路由器相连,可让网络选择一条最快的路径传送数据。

(2)主干网:通过桥接器与路由器把不同的子网或LAN连接起来形成单个总线或环型拓扑结构,这种网通常***用光纤做主干线。

(3)星状相连网:利用一些叫做超级集线器的设备将网络连接起来,由于星型结构的特点,网络中任一处的故障都可容易查找并修复。

应该指出,在实际组网中,为了符合不同的要求,拓扑结构不一定是单一的,往往都是几种结构的混用。

6、混合型拓扑结构:

混合型拓扑结构就是两种或两种以上的拓扑结构同时使用。

7、蜂窝拓扑结构:

蜂窝拓扑结构是无线局域网中常用的结构。

参考资料来源:百度百科 - 拓扑结构

传统网络架构的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于传统网络架构的特点有缺陷、传统网络架构的信息别忘了在本站进行查找喔。

扫码二维码