多途径可打造负载均衡

2024-07-24

多途径可打造负载均衡(精选5篇)

多途径可打造负载均衡 第1篇

实现负载均衡,是很多企业关注的问题,随着IT业务的激增,这种均衡方案也越来越多的受到重视。那么,根据负载平衡技术而来的网站规划方案成为企业眼中的精囊妙计。那么,现在就让我们一起来看看如何将路由,路径等问题用负载均衡的手段处理得当。

ECMP

ScreenOS支持ECMP (Equal Cost Multi-Path /等值多路径) 功能,即支持将流量在多条等cost值的路径上进行负载分担;

假如用户有两条链路接入互联网,则可设置两条静态默认路由 (ScreenO中静态路由cost值默认都为1) 分别指向两个不同的下一跳地址,并打开ECMP功能,同时指定需要负载均衡的链路条数;另外可在防火墙连接两条链路的接口上都打开NAT功能,这样所有流量都会在两条链路上进行负载分担并转换成公网IP去往互联网;

Network -> Routing -> Virtual Router -> Edit

或通过命令行 ” set max-ecmp-routes 2 ” 来启用ECMP功能,由于ScreenOS最多支持四条链路的负载均衡,因此还可使用” set max-ecmp-routes 3 ” 或” set max-ecmp-routes 4 ”。

由于防火墙是状态检测设备,因此流量会基于会话以轮询的方式实现负载均衡;举个例子,假如共有10000个会话,如果在两条链路上打开ECMP功能的话,则其中约5000个会话从链路一出去,约5000个会话会从链路二出去;

ECMP功能的好处是配置简单,但其缺点也是显而异见的,即它不能智能地依据路由远近去分配流量,而是绝对平均地以轮询的方式分配所有会话到不同链路,这样有可能导致某些流量不能从最佳路由出去;比如用户同时租用了电信和网通的两条链路,ECMP打开的后果可能会导致去往电信区域的数据从网通链路出去,而去往网通区域的数据从电信链路出去。因此ECMP功能最适用于租用同一个运营商若干条链路的用户,或租用若干个互联互通情况较好的运营商链路的用户。

另外ECMP还有一个缺点是跟某些应用不兼容;比如某些多连接的应用,且该应用还要求每个连接都来自同一个IP地址,而打开ECMP的情况下,很可能同一个用户发起的两个连接中的一个从链路一出去,第二个连接从链路儿出去,导致这些应用运行不正常,最常见的例子是工商银行的网上银行业务,中国移动网上营业厅以及联众的网络游戏系统。解决方案是打开ScreenOS的nat stick功能“set dip sticky”,即保证来自同一个源IP的不同会话始终被翻译成同一个IP地址,这样就可解决应用兼容性问题;

基于目标地址的路由

为了使流量能够选择最佳路由,最直接的手段就是通过基于目标地址路由的选路方式,比如将所有去往某运营商域内的流量手工的指到到通往该运营商的下一跳路由器上,再另外用一条默认路由将其余流量指向到另外一条链路;如果是电信和网通的两条链路我习惯将具体路由指向网通路由器,默认路由指向电信路由器,原因是因为网通的路由条目较少而电信的资源较多;

比较常见的基于目标地址路由来实现负载均衡的场合是大学的校园网,由于大学校园网一般都有若干条链路接入internet,比如一条连接电信,一条连接网通,一条连接教育科研网(Cernet),而这三个网络之间的互联互通做得并不好,比如从电信链路出去访问Cernet的资源,会发现延时很大,速度很慢,

这时使用基于目标地址的路由可以最大程度保证流量选择最佳路由出去。

基于源地址的路由 (PBR)

实现流量复杂均衡还有一个手段就是采用源地址路由的方式。一般的三层转发设备都是通过查询路由表 (存放基于目标地址的路由) 来实现路由选路,而源地址路由(PBR)方式提供了另外一个手段,即防火墙会先查询某预先定义的特殊路由表(PBR 路由表)来进行路由查询,当PBR路由表中没有命中的路由条目时再去查询默认的路由表;也就是说,PBR路由表的优先级比默认路由表高;

而PBR路由表中存放的路由都不是按照目标地址来进行选路的,而是基于别的一些因素;比如源地址,源端口,目标地址,目标端口以及IP包头的COS字段这5者的任意组合。因此用户可以利用该特性按照内网用户的源地址属性进行选录;

举个例子,加入用户租用了两条链路,一条带宽为2M,另一条带宽为10M,则可把内网的用户划分为12个网段,通过PBR将2个网段从2M链路送出去,另外10个网段从10M链路送出去以实现静态的负载均衡;

入方向的负载均衡

前面讲的三种方式其实都是出方向的负载均衡,即连接由内向外发起,适合大多数企业的环境;但可能有的用户,比如提供互联网服务的企业,需要同时实现入方向的负载均衡,即要求当互联网用户发起请求内网的服务器数据的连接时,选择就近的链路接入;

熟悉运营商路由策略的人都了解,每个运营商都只发布自己的域内路由;因此当用户连接的目标地址属于运营商A的地址范围的时候,该连接一定会进入运营商A的路由域并传输到达最终目的地址。

因此对于入方向的流量,其实并没有什么好的实现负载均衡手段,除非你有自己的独立于运营商的地址范围(自己的AS域)并通过BGP路由协议将自己的地址通告给所有的peer运管商,但这种条件很难达成。

幸好互联网的寻址系统还包括有一个DNS协议,如果DNS服务器能够将某服务器的域名解析成若干个分别对应不同运营商的地址,则连接就可以在连接这些运营商的链路上平均分摊以实现负载均衡;这个功能实现起来很简单,只需在DNS服务器上添加多条A记录即可(www.163.com就是这么做的);但由于DNS服务器不会检查链路故障,因此当某条链路断掉后,DNS服务器依然会将域名随机的解析到该链路所属运营商的地址上,因此可能导致这部分流量服务不可用;

商业化的负载均衡设备(比如F5的Linkcontroller和Radware的LinkProof)都内置一个小DNS服务器,该DNS服务器可监控链路状态的变化,当发现某条链路故障时,就不会将域名解析到该链路所属运营商的地址,以实现服务的高可用性。当然,这类设备的价格要比防火墙贵很多很多。

多途径可打造负载均衡 第2篇

负载均衡策略的选择

解决这些问题的办法有多种方式和手段,其中最直接的便是通过路由器的提供的特性来解决,当前大多数交换机厂商的3层接入交换机都可以通过相关协议的配置来实现以下策略,我们在下面将一一讨论这些策略。

基于线路的均衡策略

可以针对不同的线路端口设置不同的优先级来实现负载均衡。例如,在Internet上有很多的游戏服务器,而每个服务器所走的线路也是不一样的,这时便可以利用交换机上提供的优先线路策略了。注意:在优先线路策略中,如果这个线路断开了(如路由协议超时仍没收到Hello包,或者端口状态 down掉),交换机就会根据路由配置的优先级选择策略自动选出一条线路然后切换过去。

基于带宽和访问目的均衡策略

设置基于带宽和访问的目的地址的负载均衡,这是交换机的缺省负载均衡策略。它可以连接到交换机上的不同宽带线路,根据不同的带宽和访问的目的地址作为优先级的依据,来实现负载均衡功能。

带宽和源均衡策略

设置基于带宽和源地址的负载均衡策略。在有些网络环境中,可能会有这样一种需求:根据IP地址来优先选取是走电信线路,还是走网通线路,而且相互备份,即如果电信线路出现了故障,原先走电信线路的PC可以优先走到网通线路。

分组均衡策略

可以为内部的PC进行合理分组,设置不同的分组走不同宽带线路的策略。例如,在企业网中设置了VIP区和普通用户区。VIP区走线路速度比较快的光纤,普通用户区走线路速度相对慢一些的ADSL,来实现不同分组走不同宽带线路的目的。

实现负载均衡

现有我们讨论在接入交换机上实现负载均衡配置的几种常用路由技术以及他们在均衡性能上的优劣比较:

RIP实现负载均衡

RIP在负载均衡明显不足的关键是其缺乏动态负载均衡能力。下图显示了一台具有两条至另一台路由器串行链接的情况。理想情况下,图中的路由器会尽可能平等地在两条串行链接中分配流量。这会使两条链路上的拥塞最小,并优化性能。不幸的是,RIP不能进行这样的动态负载均衡。它会使用首先知道的一条物理链路。它会在这条链接上转发所有的报文,即使在第二条链接可用的情况下也是如此,

改变这种情况的惟一方式是图中的路由器接收到一个路由更新通知它到任何一个目的地的度量发生了变化。如果更新指出到目的地的第二条链路具有最低的耗费,它就会停止使用第一条链路而使用第二条链路。RIP适用于相对小的自治系统。它的跳数限制为15跳,这样网络拓扑的直径最大是15跳。如果你要建造的网络具有很多特性但又不是非常小,那么 RIP可能不是正确的选择。

OSPF实现负载均衡

路由负载均衡能力较弱。OSPF虽然能根据接口的速率、连接可靠性等信息,自动生成接口路由优先级,但通往同一目的的不同优先级路由,OSPF 只选择优先级较高的转发,不同优先级的路由,不能实现负载分担。只有相同优先级的,才能达到负载均衡的目的。

EIGRP实现负载均衡

EIGRP在负载均衡上与OSPF实现相比优先级确定更为智能,它可以根据优先级不同,自动匹配流量。去往同一目的的路由表项,可根据接口的速率、连接质量、可靠性等属性,自动生成路由优先级,报文发送时可根据这些信息自动匹配接口的流量,达到几个接口负载分担的目的。唯一可惜这只是CISCO 的私有协议。

多设备多线路的线路备份

VRRP热备份协议是RFC中规定的标准线路备份和负载均衡协议(CISCO有一个相对应的协议叫 HSRP协议)。若用户有2台交换机,便可以设置2个VRRP组,每个组都有一个虚拟的IP地址;内部的PC也分为两个组,这两个组设置的缺省IP地址分别是2个VRRP组的虚拟的IP地址。然后,在2台交换机上设置不同的线路优先级,这样便可以实现内部不同的分组,从不同的交换机上不同的宽带出口去访问 Internet了。

根据VRRP协议,两台以上的交换机会选出一台做主交换机Master,Master在缺省时间内(1秒钟)会向其他备份交换机发出一个广播报文 :“hello”报文,向其他备份交换机说明自己工作正常,如果备份交换机很长时间(RFC规定是3倍的广播加一个偏移值)内收不到这个广播报文,就开始由沉默转为活跃,自己向发出hello广播报文,并在hello报文中附带自己的优先级,这样许多备份交换机通过比较彼此的优先级重新选举出一个新的 Master来负责缺省路由的职能,这样VRRP协议便可以自动地进行切换,实现备份的目的。

多途径可打造负载均衡 第3篇

1 负载均衡策略

为了将负载均匀的分配给内部的多个服务器上, 就需要应用一定的负载均衡策略。传统的负载均衡策略并没有考虑到服务请求的不同类型、后台服务器的不同能力以及随机选择造成的负载分配不均匀等问题。为了使得负载分配十分均匀, 就要应用能够正确反映各个服务器CPU及I/O状态的负载均衡策略[1]。

客户发起的服务请求类型是多种多样的, 按照对处理器、网络和I/O的资源要求, 可将其分为静态文档请求和动态文档请求两类。对于静态文档, 每个服务进程占用大致相同的系统资源, 因此就可以使用进程数来表示系统负载。而动态文档服务需要进行额外的处理, 其占用的系统资源就超过处理静态请求, 因此需要使用一个权重来表示。此方法中没有考虑服务器硬件的限制, 当达到硬件限制的时候, 由于资源紧张, 服务器的负载就会明显增加。Llmax为服务器集群中最高硬件配置的服务器的Ll值。当确定了每个服务器的负载之后, 中心控制负载分配的服务器就能将负载正确的分发给最空闲的服务器, 从而不会象其他的负载分配策略那样会导致负载分配不均匀的情况。

2 实现方法及实验结果

我们的服务器系统由使用快速以太网连接起来的多台FreeBSD系统组成。每台后端服务器上运行一个守护进程来动态获得自己的负载状态, 而使用FreeBSD实现的中心控制网关就通过这些守护进程刷新各个服务器的负载, 以进行正确的负载分配。

为测试这种实现的可用性, 我们针对最常见的HTTP协议进行我们的测试实验。为区分不同请求种类设计了三个不同类型的测试, 以测试不同方面的性能。CGI程序产生的动态文档用于测试在服务器的处理能力的负载均衡状态;小型静态文档用于测试频繁连接下负载均衡的状态;大型静态文档测试磁盘及网络I/O的负载均衡状态。

测试结果以单台服务器每秒钟完成请求的性能为基准, 显示使用多台服务器进行负载均衡时每秒种完成的请求数与基准请求次数的比率 (如图1) 。

上图中的a曲线是处理动态文档请求的, 此时随着服务器数量的增加, 其性能是成倍增加的;而b曲线为处理小尺寸静态文档请求的, 在使用三台服务器时性能改善就不明显了;处理大尺寸静态文档请求的c曲线则几乎没有发生性能变化。为了找到负载均衡系统达不到理想状态的原因, 我们考察了服务器资源的利用率, 按处理类型、负载均衡网关、服务器1、服务器2、服务器3依次为:a, 53%, 97%, 95%, 98%;b, 76%43%、39%, 41%;c, 94%, 32%, 31%, 35%。由此可知, 当处理动态文档a时三台服务器都处于全速运行状态, 负载被均匀分配, 这是一种理想的状态。当处理静态文档类型b和c时, 负载虽然被均匀分配给三台服务器, 但每台服务器都没有处于全速运行状态。实验中使用不同数量的后端服务器时, 流经负载均衡网关的实际网络带宽为:服务器数量依次为1、2、3台时网络速度 (Kb/s) 依次为10042.14、11015.10、11442.67。可以看出带宽限制在10MB/s左右, 显然这是这个测试使用的负载均衡进程的带宽限制, 事实上该程序使用了链表来维护网络地址转换的状态, 通过提高硬件性能和改善算法完全可以进一步提高其性能。

3 结语

从上面的实验中可以看出, 基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载, 在一定硬件条件下具有一定的带宽限制, 但可通过改善算法和提高运行负载均衡程序的硬件性能来改善。同时也可以看出, 不同的服务类型对不同的服务器资源进行占用, 我们使用的负载衡量策略是使用同一个负载进行评估, 这对于大多数条件是适合的, 然而最好的办法是针对不同的资源, 如CPU、磁盘I/O或网络I/O等, 分别监视服务器负载, 由中心控制器选择最合适的服务器分发客户请求。

摘要:本文探讨了分布式网络服务器使用的负载均衡技术及负载分配的策略, 并基于网络地址转换在FreeBSD上实现了负载均衡网关, 应用于我们的Internet网络服务器上, 将负载分给多个服务器分担, 以解决Internet服务器面临的大量并发访问造成的CPU或I/O的高负载问题。

关键词:负载均衡,网络地址转换,FreeBSD

参考文献

多途径可打造负载均衡 第4篇

摘 要:校园网有多个出口时,均衡使用各出口带宽是高校网络信息部门关注的问题,而由于网络的互联互通,高校在采用均衡线路方法的同时往往会降低用户上网体验。针对这种情况,作者提出多系统协同的网络负载均衡方法,通过分析校园网体系结构、用户群体分布以及网络流量构成,调整核心设备配置、规划策略路由实现目的地址选址和应用选址相结合的链路负载均衡,并设计基于用户行为的DNS资源调度算法引导HTTP流量,解决负载均衡下带来的网络抖动问题,通过具体高校校园网环境测试,实验结果表明,原流量低的出口线路得到了有效提升,整体线路得到均衡,并拥有良好的用户体验。

关键词:网络负载均衡;应用协议识别;用户行为分析;流量控制;DNS

中图分类号:TP393.1 文献标志码:A 文章编号:1673-8454(2016)04-0085-05

随着无线校园网的迅速普及,师生员工对网络的依赖性越来越高,对高速、稳定的网络需求越发迫切,为了解决校内外带宽瓶颈问题,高校也逐渐将校园网主干线路升级到万兆,并接入不同运营商的线路来实现网络出口的扩容。

在实际应用中,多网络出口高校的各条线路流量并不能达到预期中的效果,往往流量集中于一条线路,造成过载,而其余线路处于空闲状态,使用网络负载均衡设备虽然可以解决过载与空闲的问题[1-7],让线路看上去均衡,但很容易失去多出口线路带来的最大优势,发往归属于某运营商的数据包受负载均衡影响,需要从其他运营商的线路出去,经过绕行,才能到达目的地,用户的上网体验感会明显下降。

本文提出了一种基于多系统协同的网络负载均衡方法,在解决线路负载均衡的同时,保障网络质量不受影响。

一、问题描述与分析

多出口是高校普遍采用的网络策略,此策略具备优点的同时,集中性的问题也较多,在绝大多数高校校园网中比较普遍。现以某高校为例进行典型性分析。某高校目前校园网有电信(1G)、联通(100M+200M)、教育网(1G)、移动(1G)以及长城宽带(1G,只提供视频镜像服务)出口,总可用带宽为4.3G,校园网采用扁平化三层架构部署[8 -9],有线用户使用PPPOE拨号认证,无线用户使用802.1x准入认证和Portal准出认证。

这是一个典型且复杂的多出口网络,涵盖了大多数的高校出口模型。从网管系统中获取到各线路的负载情况,如表 1所示,优质带宽的快速消耗导致校园网不仅在晚高峰期近乎无法使用,白天工作时间也不断出现网页打开缓慢的问题。

显而易见,电信、联通线路已经满负载在运行,而其他线路,在不同的时间段,流量都较小且变化小,做出的贡献值也偏低。

为了缓解校园网目前所遇到的问题,高校会采用智能流控设备对流量进行控制,保障Web应用流量,限制单用户并发数和带宽,策略实施后,线路负载如表 2所示。

从数据上看,电信、联通线路负载得到了明显的降低,其他线路未见明显变化,虽然在一定程度改善了网络拥堵情况,在高峰期能保障网页的正常浏览,但仍有大量线路资源处于空闲状态。

对于校园网用户,体验网络的质量可以从两个角度分析:①上网、游戏、视频流畅不卡,即带宽有保障,链路稳定;②下载速度快,即能充分享受带宽,当这两个需求叠加在一起时,对带宽有限的校园网而言,形成矛盾关系。分析并总结各个运营商提供的线路以及目前状态,如表 3所示。

从表3中可见,大量的带宽并没有被有效利用起来,进一步检查校内权威DNS的配置信息,当前校内DNS配置为向教育网递归,这是高校一般的配置,而教育网返回的域名对应的地址以属于联通、电信居多,从而也得出降低拥塞线路需要解决DNS递归解析问题[11 -13]。

从流控设备中取得应用排名信息,如表 4所示,可以发现P2P流量在网络流量中占比最大,结合表 1数据,正是这部分流量消耗了优质线路的宝贵带宽,造成用户不仅上网不稳定,而且下载缓慢,互相争抢有限的优质带宽,恶性循环越发严重。

表 4也表明,稳妥的处理好P2P下载流量,才能恢复网络的畅通,是负载均衡实现的先要条件,基于以上分析,本文提出了基于多系统协同的负载均衡方法。

二、多系统协同的负载均衡方法

通过上述分析研究,并考虑到现有核心架构,通过三种途径共同作用来实现网络负载均衡,并解决负载均衡中遇到的网络抖动问题。

1.校园网核心重新部署

核心链路升级改造是为了给负载均衡的实现提供必要的硬件支撑。

改造后的核心拓扑如图 1所示,部署方案如下:

(1)部署2台万兆防火墙并作为出口路由设备,防火墙以主备模式部署,在最前端配置一台交换机,划分VLAN,将各出口线路一分为二,分别接到防火墙,解决网络出口稳定性问题。

(2)核心设备之间的链路由千兆捆绑升级到万兆互联,解决物理层次的瓶颈以及因捆绑而造成的设备部分功能受限问题。

2.系统协同配置方法

在负载均衡方法上,整体思路为实时应用采用目的地址路由,数据包不跨运营商线路;p2p下载、p2p影音采用应用协议路由,指定具体出口线路;DNS划分不同转发区,引导网络流量,并解决网络抖动问题。具体配置方法如下所述:

(1)在出口防火墙上面写入静态路由,根据IP目的地址选择合适的运营商线路;依据应用识别的结果,制定策略路由,将P2P下载、P2P影音的数据包按线路负载引流到教育网出口和移动出口。

策略路由配置命令如下:

FireWall_1(M)(config)# pbr-policy cernet

FireWall_1(M)(config-pbr)# match id 5

FireWall_1(M)(config-pbr-match)# nexthop 172.16.255.53 112.25.223.97

Building configuration..

配置命令生效后,查询配置结果如图 2高亮行所示。

(2)校内DNS服务器的递归请求默认通过移动线路发送到移动的DNS服务器进行解析;定义多个DNS转发区,教育网域名以通配符识别方式发送到教育网DNS解析;视频站点域名发送到长城宽带DNS服务器解析;因DNS默认递归由教育网变更为移动造成网络抖动的域名地址发送到电信DNS解析,出口线路选择由防火墙配置的静态路由进行支持,对应关系如表 5所示。

(3)修改缓存设备配置参数,改进主动和被动缓存触发因子,优化资源淘汰调度算法以及服务对象,并进行集群部署。

(4)流控设备透明接入到防火墙和核心设备之间,配置限制单用户会话数总量和新建速率,预防DDOS攻击等可能对网络设备造成的性能影响,并根据需求在设备上做临时性的保障限制策略。

3.DNS资源调度优化算法

当DNS返回的IP地址在移动地址段中,由于线路质量问题,访问部分站点会不稳定,即上文所述的网络抖动,可以通过用户反馈手工搜集这些站点,写入到电信转发区,但工作量不仅大而且用户评价不好。本文提出了基于用户行为的DNS资源优化调度算法来解决这个问题。结合站点请求解析次数、在Alexa网站中的排名以及是否拥有运营商镜像等因子进行分析计算,将满足要求需要保障的域名解析写入到电信转发区中。

算法描述:

定义网站域名集合D,移动地址段M,被解析站点域名d,d∈D,域名被请求解析次数m,在移动DNS中解析出来的地址p。

当p∈M,则统计校园网到地址p的时延数据,并计算平均时延t。

定义Δ,表示每一个域名在当前线路需要被调整的系数,由网络稳定性、时延性以及由归一化后的请求次数α计算所得,Δ值越大,表明越需要进行调整,其中

α=■(1)

Δ=(1+■■(tj-■)2)×■× α (2)

在p∈M的条件下,将域名d发送到电信DNS进行解析,并计算Δ',得到电信线路的调整系数。

定义λ=Δ-Δ',λ为二者距离,定义调整阙值β,β>0,当λ>β时,参考Δ初始值并结合实际访问感受,将对应域名迁移到电信保障转发域中。

三、实验分析

选取了某个时刻的域名请求排行,收集时延信息,并分别予以计算Δ和Δ',如表 6所示。

由实验数据结合实际访问网站感受进行分类,经验数据表明,当网页打开速度有明显变化时,即可考虑将该域名解析进行迁移。

通过多系统间的协同调整,在没有限速的情况下,目前各出口线路使用状况与调整之前对比如图3所示,各线路都在较高负荷中运行,视频服务出口线路因提供有限服务,从而流量不会很高。通过对百度贴吧、学校BBS论坛等信息的观测,校园网用户普遍反应目前使用校园网进行页面浏览、游戏的质量以及下载速度得到了很大的提升,达到了预期的网络负载均衡效果。

经过调整后,校园网下行带宽利用率得到了明显提升,如图 4所示,非高峰期流量已经突破调整前的晚高峰流量。

在出口防火墙上面观察,P2P应用已经从教育网、移动线路上分流;电信、联通线路上以Http应用和其他TCP协议为主,如表 7所示。

为了验证每个用户在电信、联通线路中带宽占用情况,在流控设备上进行单用户带宽限制测试,当非P2P应用的带宽限制依次设置为10Mbps、6Mbps、4Mbps时,发现电信、联通线路下行流量变化不明显,即单个用户在优质线路上的带宽占用率不显著,而3万多校园网用户决定此线路会在高负荷下运行。

在负载均衡方法中,将缓存设备也作为一个重要的因素予以考虑,策略调整后缓存设备也发挥了明显的作用。在缓存磁盘全部格式化清空后,设备用了约7天左右的时间进行高速缓存,如图 5所示;稳定后,为校园网用户提供约300Mbps的流量服务,进一步降低了出口压力,如图 6所示。图 5和图 6中实心区域为回源流量,线条为服务流量。

实现高校多出口网络的负载均衡,首先需要知道各学校网络的流量构成,比如总体而言,文科院校视频流量会相对较高,而理工科院校点对点下载的流量会很高,一般负载均衡设备从线路的角度出发,前提也基于线路质量是等价,在高校特殊的网络中直接应用可能带来相反的效果。本文针对特定的网络场景,不但平衡了线路流量,还提升了线路利用率,并提出一种解决网络抖动的方法,经实验验证,达到了预期的效果。

参考文献:

[1]张焕杰,夏玉良.用户自主选择的校园网出口策略路由实现[J].通信学报,2013 (S2): 14-22.

[2]郭秉礼,黄善国,罗沛等.基于负载均衡的联合路由策略[J].北京邮电大学学报,2009,32(4): 1-5.

[3]王云岚,李增智,薛军等.基于DNS的负载均衡算法研究[J].计算机工程与应用,2002(4):11-13.

[4]吴璇,隋红建.负载均衡技术在防火墙系统中的应用[J].计算机应用,2003,23(S2): 22-24.

[5]常潘,沈富可.使用域名负载均衡技术实现校园网对外服务器的高速访问[J].计算机应用,2007, 27(7):1585-1586.

[6]申健.校园网路由策略分析及应用[J].实验技术与管理,2013, 30(11): 122-125.

[7]Su Bing, Yu Haiyang, Lu Jieru. Traffic optimizationon the dynamic switching of ABR for OSPF networks[C].2009 International Conference on Information Technology and Computer Science,2009:429-432.

[8]谢胜军.有线无线一体化的扁平校园网设计[J].通信学报, 2013, 34(Z2):79-83.

[9]张志成,邹仁明,张晓.基于冗余架构的校园网多出口系统的设计与实现[J].计算机科学,2012,39(10): 219-222.

[10]彭隽,劳凤丹,邹仁明.万兆全冗余校园网出口升级改造方案[J].武汉大学学报(理学版),2012, 58(S1):120-124.

[11]杜跃进,张兆心,王克等.基于用户感知的DNS解析网络性能测量技术[J].南京航空航天大学学报,2013, 45(1):110-115.

[12]王艳歌.一种基于智能DNS解析及静态地址映射的快速访问策略[J].科技通报,2012, 28(12):146-148.

[13]秦臻,周帆,李乐民.DNS对CDN流媒体服务质量的影响[J].电子科技大学学报,2013,42(4):577-580.

多途径可打造负载均衡 第5篇

本文介绍linux下的bonding技术,linux2.4.x的内核中采用了这种技术,利用bonding技术可以将多块网卡接口通过绑定虚拟成为一块网卡,在用户看来这个聚合起来的设备好像是一个单独的以太网接口设备,通俗点讲就是多块网卡具有相同的IP地址而并行连接聚合成一个逻辑链路工作。现在在关于linuxbonding技术中,有几种算法来实现负载均衡的要求,此文针对这些算法,在此进行简单分析与研究,讨论其不足,并提出另外一种在此基础上改进的一种基于传输协议的负载均衡实现方法。讨论如何实现多个网络接口的分在均衡及其故障接管。

二、负载均衡技术和高可用技术介绍

2.1负载均衡技术负载均衡技术的主要思想就是如何根据某种算法将网络的业务流量平均分配到不同的服务器和网络设备上去,以减轻单台服务器和网络设备的负担,从而提高整个系统的效率。负载均衡既可以由有负载均衡功能的硬件实现,也可以通过一些专用的软件来实现,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或者I/O任务,从而以较低的成本消除网络瓶颈,提高网络的灵活性和可靠性。

2.2高可用技术实现负载均衡首先是基于网络的高可用性提出来的,高可用技术是容错技术的一个分支。实现系统的高可用性最简单的一个办法就是冗余,

完整的网络负载均衡和高可用性网络技术有两个方面构成,一是多服务器的绑定和负载均衡,二是一个服务器内部的多网卡绑定的负载均衡,这里主要讨论一个服务器内部的多网卡绑定时的负载均衡。

三、Linux的bonding技术中负载均衡的简单实现

3.1Linux的bonding技术Linux的bonding技术是网卡驱动程序之上、数据链路层之下实现的一个虚拟层,通过这种技术,服务器接在交换机上的多块网卡不仅被绑定为一个IP,MAC地址也被设定为同一个,进而构成一个虚拟的网卡,工作站向服务器请求数据,服务器上的网卡接到请求后,网卡根据某种算法智能决定由谁来处理数据的传输。Bonding技术可以提高主机的网络吞吐量和可用性。

3.2Linux的几种发送均衡算法目前Linux的发送算法最主要的有三种:轮转算法(Round-Robin)、备份算法(Active-Backup)、MAC地址异或算法(MAC-XOR).下面对目前这三种主要算法进行简单分析。

3.2.1轮转算法该算法是基于公平原则进行的,它为每个将要被发送的数据包选择发送接口,算法的主要思想是首先第一个数据包由一个接口发送,另一个数据包则由另外一个接口发送,下面依次进行循环选择。通过分析我们可以看出这种算法比较比较简单,在发送数据方面也比较公平,能保证网卡发送数据时候的负载均衡,资源利用率很高。但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降。

上一篇:高二政治选择下一篇:武汉科技大学数据库