网络架构模拟设计(网络架构模拟设计图)

网络设计 335
本篇文章给大家谈谈网络架构模拟设计,以及网络架构模拟设计图对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、几种经典的网络服务器架构模型的分析与比较

本篇文章给大家谈谈网络架构模拟设计,以及网络架构模拟设计图对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

几种经典的网络服务器架构模型的分析与比较

相比于传统的网络编程方式,***驱动能够极大的降低***占用,增大服务接待能力,并提高网络传输效率。 关于本文提及的服务器模型,搜索网络可以查阅到很多的实现代码,所以,本文将不拘泥于源代码的陈列与分析,而侧重模型的介绍和比较。使用 libev ***驱动库的服务器模型将给出实现代码。 本文涉及到线程 / 时间图例,只为表明线程在各个 IO 上确实存在阻塞时延,但并不保证时延比例的正确性和 IO 执行先后的正确性;另外,本文所提及到的接口也只是笔者熟悉的 Unix/Linux 接口,并未推荐 Windows 接口,读者可以自行查阅对应的 Windows 接口。阻塞型的网络编程接口几乎所有的程序员第一次接触到的网络编程都是从 listen()、send()、recv()等接口开始的。使用这些接口可以很方便的构建服务器 /客户机的模型。我们***设希望建立一个简单的服务器程序,实现向单个客户机提供类似于“一问一答”的内容服务。图1. 简单的一问一答的服务器 /客户机模型 我们注意到,大部分的 socket接口都是阻塞型的。所谓阻塞型接口是指系统调用(一般是 IO接口)不返回调用结果并让当前线程一直阻塞,只有当该系统调用获得结果或者超时出错时才返回。实际上,除非特别指定,几乎所有的 IO接口 (包括 socket 接口 )都是阻塞型的。这给网络编程带来了一个很大的问题,如在调用 send()的同时,线程将被阻塞,在此期间,线程将无法执行任何运算或响应任何的网络请求。这给多客户机、多业务逻辑的网络编程带来了挑战。这时,很多程序员可能会选择多线程的方式来解决这个问题。多线程服务器程序 应对多客户机的网络应用,最简单的解决方式是在服务器端使用多线程(或多进程)。多线程(或多进程)的目的是让每个连接都拥有独立的线程(或进程),这样任何一个连接的阻塞都不会影响其他的连接。 具体使用多进程还是多线程,并没有一个特定的模式。传统意义上,进程的开销要远远大于线程,所以,如果需要同时为较多的客户机提供服务,则不推荐使用多进程;如果单个服务执行体需要消耗较多的 CPU ***,譬如需要进行大规模或长时间的数据运算或文件访问,则进程较为安全。通常,使用 pthread_create () 创建新线程,fork() 创建新进程。 我们***设对上述的服务器 / 客户机模型,提出更高的要求,即让服务器同时为多个客户机提供一问一答的服务。于是有了如下的模型。图2. 多线程服务器模型 在上述的线程 / 时间图例中,主线程持续等待客户端的连接请求,如果有连接,则创建新线程,并在新线程中提供为前例同样的问答服务。 很多初学者可能不明白为何一个 socket 可以 accept 多次。实际上,socket 的设计者可能特意为多客户机的情况留下了伏笔,让 accept() 能够返回一个新的 socket。下面是 accept 接口的原型: int accept(int s, struct sockaddr *addr, socklen_t *addrlen); 输入参数 s 是从 socket(),bind() 和 listen() 中沿用下来的 socket 句柄值。执行完 bind() 和 listen() 后,操作系统已经开始在指定的端口处监听所有的连接请求,如果有请求,则将该连接请求加入请求队列。调用 accept() 接口正是从 socket s 的请求队列抽取第一个连接信息,创建一个与 s 同类的新的 socket 返回句柄。新的 socket 句柄即是后续 read() 和 recv() 的输入参数。如果请求队列当前没有请求,则 accept() 将进入阻塞状态直到有请求进入队列。 上述多线程的服务器模型似乎完美的解决了为多个客户机提供问答服务的要求,但其实并不尽然。如果要同时响应成百上千路的连接请求,则无论多线程还是多进程都会严重占据系统***,降低系统对外界响应效率,而线程与进程本身也更容易进入***死状态。 很多程序员可能会考虑使用“线程池”或“连接池”。“线程池”旨在减少创建和销毁线程的频率,其维持一定合理数量的线程,并让空闲的线程重新承担新的执行任务。“连接池”维持连接的缓存池,尽量重用已有的连接、减少创建和关闭连接的频率。这两种技术都可以很好的降低系统开销,都被广泛应用很多大型系统,如 websphere、tomcat 和各种数据库等。 但是,“线程池”和“连接池”技术也只是在一定程度上缓解了频繁调用 IO 接口带来的***占用。而且,所谓“池”始终有其上限,当请求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时候效果好多少。所以使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。 对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求,“线程池”或“连接池”或许可以缓解部分压力,但是不能解决所有问题。 总之,多线程模型可以方便高效的解决小规模的服务请求,但面对大规模的服务请求,多线程模型并不是最佳方案。下一章我们将讨论用非阻塞接口来尝试解决这个问题。使用select()接口的基于***驱动的服务器模型 大部分 Unix/Linux 都支持 select 函数,该函数用于探测多个文件句柄的状态变化。下面给出 select 接口的原型: FD_ZERO(int fd, fd_set* fds) FD_SET(int fd, fd_set* fds) FD_ISSET(int fd, fd_set* fds) FD_CLR(int fd, fd_set* fds) int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout) 这里,fd_set 类型可以简单的理解为按 bit 位标记句柄的队列,例如要在某 fd_set 中标记一个值为 16 的句柄,则该 fd_set 的第 16 个 bit 位被标记为 1。具体的置位、验证可使用 FD_SET、FD_ISSET 等宏实现。在 select() 函数中,readfds、writefds 和 exceptfds 同时作为输入参数和输出参数。如果输入的 readfds 标记了 16 号句柄,则 select() 将检测 16 号句柄是否可读。在 select() 返回后,可以通过检查 readfds 有否标记 16 号句柄,来判断该“可读”***是否发生。另外,用户可以设置 timeout 时间。 下面将重新模拟上例中从多个客户端接收数据的模型。图4.使用select()的接收数据模型 上述模型只是描述了使用 select() 接口同时从多个客户端接收数据的过程;由于 select() 接口可以同时对多个句柄进行读状态、写状态和错误状态的探测,所以可以很容易构建为多个客户端提供独立问答服务的服务器系统。图5.使用select()接口的基于***驱动的服务器模型 这里需要指出的是,客户端的一个 connect() 操作,将在服务器端激发一个“可读***”,所以 select() 也能探测来自客户端的 connect() 行为。 上述模型中,最关键的地方是如何动态维护 select() 的三个参数 readfds、writefds 和 exceptfds。作为输入参数,readfds 应该标记所有的需要探测的“可读***”的句柄,其中永远包括那个探测 connect() 的那个“母”句柄;同时,writefds 和 exceptfds 应该标记所有需要探测的“可写***”和“错误***”的句柄 ( 使用 FD_SET() 标记 )。 作为输出参数,readfds、writefds 和 exceptfds 中的保存了 select() 捕捉到的所有***的句柄值。程序员需要检查的所有的标记位 ( 使用 FD_ISSET() 检查 ),以确定到底哪些句柄发生了***。 上述模型主要模拟的是“一问一答”的服务流程,所以,如果 select() 发现某句柄捕捉到了“可读***”,服务器程序应及时做 recv() 操作,并根据接收到的数据准备好待发送数据,并将对应的句柄值加入 writefds,准备下一次的“可写***”的 select() 探测。同样,如果 select() 发现某句柄捕捉到“可写***”,则程序应及时做 send() 操作,并准备好下一次的“可读***”探测准备。下图描述的是上述模型中的一个执行周期。图6. 一个执行周期 这种模型的特征在于每一个执行周期都会探测一次或一组***,一个特定的***会触发某个特定的响应。我们可以将这种模型归类为“***驱动模型”。 相比其他模型,使用 select() 的***驱动模型只用单线程(进程)执行,占用***少,不消耗太多 CPU,同时能够为多客户端提供服务。如果试图建立一个简单的***驱动的服务器程序,这个模型有一定的参考价值。 但这个模型依旧有着很多问题。 首先,select() 接口并不是实现“***驱动”的最好选择。因为当需要探测的句柄值较大时,select() 接口本身需要消耗大量时间去轮询各个句柄。很多操作系统提供了更为高效的接口,如 linux 提供了 epoll,BSD 提供了 kqueue,Solaris 提供了 /dev/poll …。如果需要实现更高效的服务器程序,类似 epoll 这样的接口更被推荐。遗憾的是不同的操作系统特供的 epoll 接口有很大差异,所以使用类似于 epoll 的接口实现具有较好跨平台能力的服务器会比较困难。 其次,该模型将***探测和***响应夹杂在一起,一旦***响应的执行体庞大,则对整个模型是灾难性的。如下例,庞大的执行体 1 的将直接导致响应*** 2 的执行体迟迟得不到执行,并在很大程度上降低了***探测的及时性。图7. 庞大的执行体对使用select()的***驱动模型的影响 ***的是,有很多高效的***驱动库可以屏蔽上述的困难,常见的***驱动库有 libevent 库,还有作为 libevent 替代者的 libev 库。这些库会根据操作系统的特点选择最合适的***探测接口,并且加入了信号 (signal) 等技术以支持异步响应,这使得这些库成为构建***驱动模型的不二选择。下章将介绍如何使用 libev 库替换 select 或 epoll 接口,实现高效稳定的服务器模型。使用***驱动库libev的服务器模型 Libev 是一种高性能***循环 / ***驱动库。作为 libevent 的替代作品,其第一个版本发布与 2007 年 11 月。Libev 的设计者声称 libev 拥有更快的速度,更小的体积,更多功能等优势,这些优势在很多测评中得到了证明。正因为其良好的性能,很多系统开始使用 libev 库。本章将介绍如何使用 Libev 实现提供问答服务的服务器。 (事实上,现存的***循环 / ***驱动库有很多,作者也无意推荐读者一定使用 libev 库,而只是为了说明***驱动模型给网络服务器编程带来的便利和好处。大部分的***驱动库都有着与 libev 库相类似的接口,只要明白大致的原理,即可灵活挑选合适的库。) 与前章的模型类似,libev 同样需要循环探测***是否产生。Libev 的循环体用 ev_loop 结构来表达,并用 ev_loop( ) 来启动。 void ev_loop( ev_loop* loop, int flags ) Libev 支持八种***类型,其中包括 IO ***。一个 IO ***用 ev_io 来表征,并用 ev_io_init() 函数来初始化: void ev_io_init(ev_io *io, callback, int fd, int events) 初始化内容包括回调函数 callback,被探测的句柄 fd 和需要探测的***,EV_READ 表“可读***”,EV_WRITE 表“可写***”。 现在,用户需要做的仅仅是在合适的时候,将某些 ev_io 从 ev_loop 加入或剔除。一旦加入,下个循环即会检查 ev_io 所指定的***有否发生;如果该***被探测到,则 ev_loop 会自动执行 ev_io 的回调函数 callback();如果 ev_io 被注销,则不再检测对应***。 无论某 ev_loop 启动与否,都可以对其添加或删除一个或多个 ev_io,添加删除的接口是 ev_io_start() 和 ev_io_stop()。 void ev_io_start( ev_loop *loop, ev_io* io ) void ev_io_stop( EV_A_* ) 由此,我们可以容易得出如下的“一问一答”的服务器模型。由于没有考虑服务器端主动终止连接机制,所以各个连接可以维持任意时间,客户端可以自由选择退出时机。图8. 使用libev库的服务器模型 上述模型可以接受任意多个连接,且为各个连接提供完全独立的问答服务。借助 libev 提供的***循环 / ***驱动接口,上述模型有机会具备其他模型不能提供的高效率、低***占用、稳定性好和编写简单等特点。 由于传统的 web 服务器,ftp 服务器及其他网络应用程序都具有“一问一答”的通讯逻辑,所以上述使用 libev 库的“一问一答”模型对构建类似的服务器程序具有参考价值;另外,对于需要实现远程监视或远程遥控的应用程序,上述模型同样提供了一个可行的实现方案。 总结 本文围绕如何构建一个提供“一问一答”的服务器程序,先后讨论了用阻塞型的 socket 接口实现的模型,使用多线程的模型,使用 select() 接口的基于***驱动的服务器模型,直到使用 libev ***驱动库的服务器模型。文章对各种模型的优缺点都做了比较,从比较中得出结论,即使用“***驱动模型”可以的实现更为高效稳定的服务器程序。文中描述的多种模型可以为读者的网络编程提供参考价值。

计算机网络工程二层架构校园网设计课程设计

.需求分析

2.主要技术介绍

3.实验内容及步骤

4.网络测试

5.课程设计小结

建议还是自己写比较好 你应该是从事这个行业的,可以得到历练

网路架构设计是什么意思?

网络架构(Network Architecture)

网络架构(Network Architecture)是为设计、构建和管理一个通信网络提供一个构架和技术基础的蓝图。网络构架定义了数据网络通信系统的每个方面,包括但不限于用户使用的接口类型、使用的网络协议和可能使用的网络布线的类型。网络架构典型地有一个分层结构。分层是一种现代的网络设计原理,它将通信任务划分成很多更小的部分,每个部分完成一个特定的子任务和用小数量良好定义的方式与其它部分相结合。

网络架构怎么设计?

上网路由器——行为管理——核心交换机(划分vlan,定义不同部门)——接入层交换机——PC客户端

在上网路由器上可以定义ACL访问控制列表, deny 51-99 151-199 permit 1-50 100-150

ip access-list extended TO-YFWQ

deny ip 192.168.1.0 0.0.0.63 云服务器ip

permit ip 192.168.1.151 0.0.0.63 云服务器ip

permit ip any any (上网流量)

Bluebox网络架构设计分为几层

分为五层:应用层、运输层、网络层、数据链路层、物理层。

BlueBox,简单说,是一种早期黑客使用的工具,就是电话盗打器,常用于早年模拟电话网。事实上BlueBox就是一个信号发生器,它可以发出各种电话网上的模拟信号频率。

BlueBox早期技术:早期的电话网都是模拟网,而网络的运作离不开信令(又分用户信令和局间信令)。在模拟电话网中,局间信令就是一系列预先设定了频率的模拟信号,空闲信号是其中之一(当交换机与交换机之间的信道空闲,一个交换机就会向另一个发送特定频率的模拟信号)。而其他的信息,如建立呼叫等,也一样使用特定的模拟信号完成的。

帮忙设计一个大学校园网络结构架设设计

大型校园网设计方案:

案例教学要求:

掌握设计具有三层结构的大型校园网的设计的基本方法,为南昌大学软件学院同样条件的校园网设计网络拓扑。

学会选择适当设备构造该网络。

案例教学环境:P C 1台,Microsoft Visio软件1套。

(一)需求分析

***用三层结构为该大学设计校园网:选用万兆以太网作为连接大学4个校区的高速主干;选用千兆以太网作为各个校区的主干,形成大学校园网的汇聚层;选用百兆以太LAN作为基本的接入形式。

大学校园网与因特网具有统一接口,即通过百兆以太网接入中国教育科研网CERNET。

1. 由于一个时期的网络具有特定的主流技术,因此这几年建设的园区网大多数都***用千兆到楼宇、百兆到LAN/桌面的以太网解决方案。事实上,这种结构是一种二层结构的网络拓扑,其中的千兆构成了汇聚层的主干,而百兆到LAN/主机构成了接入层。因此,一种自然而然的解决方案就是选用万兆以太网作为整个核心层,形成了校园网的主干。并且该校园网主干***用因特网的公网地址

为何选用万兆交换机互联各个园区网,而不选用高速路由器呢?

各园区网均***用的以太网技术体系,兼容性好

大学将在校园网上开展教学***观摩、远程听课等多媒体应用,提供高速率信息通道是必要的。万兆交换机为三层交换机,是具有选路功能的交换机,在校园网环境下能够具有更好的性能。

价格因素。

3. 根据南昌大学软件学院的分析,该校园网从CERNET获得了IP地址的数量是无法满足需求的,只能供向因特网发布信息和联系或进行网络科学研究之用,因此构成校园网IP地址的主体是经过NAT转换的专用网地址。使用专用网地址不利于与其他大学的学术交流,但也是不得已而为之的方法;另一方面,可能使得校园网受到网络黑客侵扰会少些

4. 由于网络的规模较大,考虑到以后的可扩展性,选路协议选用OSPF

5. 考虑到设备的可管理性,网络管理协议选用SNMP

(二)设计方案:

1、公网部分

校园网分为公网和专网。通过防火墙,连接放置各种应用服务器的非军事区部分,并经路由器与CERNET相连

该三层校园网结构中的核心层位于公网部分,可选用了Cisco公司的万兆交换机Cat6509

租用电信公司的光纤裸芯,用万兆速率将4个园区的4台万兆交换机连成一个环。为提高网络可靠性,还在园区2和园区4之间用千兆光缆连接起来

校园网的核心层结构

2、专网部分

各园区网可基本保持原有的二层网络架构,并在自己的园区网中使用专用IP地址块。考虑将园区网汇聚层主干千兆主交换机与大学万兆交换机通过防火墙相连的问题,注意到有些万兆交换机可能具有内置的防火墙。同时,它们可在内部防火墙处设置自己的非军事区,放置学院的网络应用服务器。

某学院网络与新建的大学万兆核心层主干网的连接。其中计算机学院网络的主干网以3COM公司的Switch 4007与交换机3C16980连接的千兆光缆构成了学院园区网的主干,向下以百兆以太网作为接入网与用户PC相连。

(1)各二级学院的园区中具有的PC数量为300~1000台,必要时可划分为若干个子网,也可以划分为多个VLAN,以隔离广播流量,提高网络工作效率,并提高安全性。

(2)网络管理协议选用SNMP。

(3)***用防火墙将校园网分为两部分,一部分为与CERNET直接相连的公网部分,另一部分为专用网部分,即我们上面所设计的部分,***用的地址可***用在7.5.1节中所设计的相应方案。

关于网络架构模拟设计和网络架构模拟设计图的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

扫码二维码