带宽资源范文

2024-06-27

带宽资源范文(精选10篇)

带宽资源 第1篇

网络发展日新月异, 随着互联网上各种新业务的出现, 人们对网络服务质量也提出了更高的要求, 资源预留为保证网络服务质量提供支持, 是网络中必要的机制之一。

然而, 目前大多数资源预留机制都存在着“资源隐藏”问题[1], 即网络中存在不再被使用却又未被释放的资源。例如, 发起资源预留的应用会由于请求消息的丢失而重新发起资源预留过程, 这可能会造成资源的重复预留;对于已经申请了资源预留的应用, 可能会由于某些原因 (例如数据传输非正常终止等) , 使应用不能主动发送消息来请求释放已申请的资源, 甚至请求释放资源的消息本身也可能丢失, 这些情况都会导致已被预留的资源不再被使用却无法被释放。上述现象在移动终端上更容易发生, 节点位置的改变可能会引起传输路径发生变化, 以致在旧传输路径上预留的资源无法被释放[2]。这些现象会导致网络资源的利用率下降, 随着时间的推移问题逐步积累, 严重影响网络的服务质量。

针对这种状况, 业界提出了一些基于RSVP的扩展机制[3]。总体来说, 在现有网络技术中, 解决资源隐藏问题的方法有状态刷新和状态校正两种方法[4]。

本文结合以上两种方法, 提出了一种基于带宽保持的资源预留调整机制, 通过对预留的资源进行定时衰减的方法, 提高网络资源的利用率。

2 资源预留点

由于网络的带宽资源是有限的, 因此在数据通信路径上设置一些参考点 (例如交换机的输入或输出端口) , 在这些参考点设置资源预留机制来保证网络的服务质量, 称这些参考点为资源预留点。

每个资源预留点有4个数据级别 (见表1) , 每个数据级别作为单独的资源预留控制对象 (简称RCO) 。每个RCO定义有本数据级别总带宽预留值D、已预留带宽值R和拥塞标志Flag三个统计量。每条经过资源预留点的数据流, 如果要保证网络服务质量, 都需要在通信之前申请预留资源, 否则网络只提供尽力而为的数据转发服务。申请了资源预留的数据流, 在通信期间需定时发送带宽保持包, 不断刷新预留带宽值, 在通信结束时要撤销之前申请的资源。如果R>D, 表明资源预留申请量超过网络可预留资源的值, 当前不允许更多的资源预留申请, 并置位对应输入缓冲器的拥塞标志Flag=1。Flag设置单稳态操作, 即延迟一段时间后将自动清零, 若清零前进行了置位操作, 则重新计算延迟时间。当数据包经过网络中某个资源预留点时, 根据其数据级别选择Qo S控制对象, 并根据Flag的值选择拥塞控制机制。

3 资源预留过程

3.1 申请资源

主动发出资源预留申请的端系统称为资源预留的申请端, 对端称为接收端。设终端系统A为资源预留的申请端, 终端系统T为接收端, 则在链路AT上的资源预留申请过程如下:首先申请端A发出资源探测包, 探测包在传递途中, 每经过一个资源预留点, 都要进行资源探测, 查看当前的资源预留值是否满足申请端的预留需求, 若不满足则拒绝本次申请;若满足, 则探测包被送往下一个资源预留点。如果探测全部通过, 探测包最终被传递到T。T收到探测包后, 向A发送回应包 (r Rec) 。A收到r Rec后, 向T发送确认包 (r ACK) 。上述过程中, 资源探测包只探测资源, r Rec负责进行资源预留工作。T发送r Rec后, 启动一个定时器, 如果在定时器到时后仍未收到A的r ACK, 则T需要重新发送r Rec。

由于在资源预留的申请中, 可能由于某种原因 (例如r Rec丢失或r ACK丢失等) 导致接收端重复发出r Rec。如果之前丢失的包已经在网络链路中的某些资源预留点预留了资源, 那么重新发起的申请就会造成重复预留资源, 从而浪费网络资源。考虑到上述情况, 本资源预留策略进行了针对性设计, 在r Rec中加入了r Seq计数变量, 使网络能够区分出不同的资源预留申请。每个资源预留点都设有一张用于保存r Seq值的表, 表项的有效时间大于r Rec的重传时间, 有效时间到时后, 相应的表项会被清空。资源预留点每收到一个r Rec, 首先搜索表中是否存在该r Seq值, 如果不存在, 并且当前的资源预留量可以满足这次资源预留申请, 则在表中记录下这个r Seq值, 并进行资源预留工作, 如果可预留资源量不满足资源预留的申请值, 则拒绝此次申请;如果r Seq在表中存在记录, 则忽略该资源预留信令, 从而有效避免了网络中一个资源预留申请重复预留资源情况的出现。

3.2 带宽保持

本文采用对整体资源预留信息进行维护的方法, 即在每个资源预留点, 不记录单条业务流的资源预留信息, 只记录本资源预留点允许分配的资源预留总量D和已经被分配出的资源预留总量R (R不允许大于D) , 并按周期对R值进行维护和刷新。具体方法如下:资源预留点的R值会按周期进行衰减工作 (设衰减周期为J, 时间可配置) , 申请端要想保持链路上申请的资源预留量, 就需要定期在这条链路上传输带宽保持包 (设传输周期为C, 时间可配置) 。带宽保持包中含有带宽扩展值x, 用来维持用户在链路上申请的资源预留量。资源预留信息的衰减公式为:

其中R (n) 和R (n+1) 分别为衰减周期前后, 资源预留点中已经被分配出的资源预留量;λ∈ (0, 1) , 是控制算法衰减速率的参数, 可根据时间段和网络中数据流量的使用率进行设置, 例如在凌晨或网络中数据流量较小时, 可将λ值设置大一些, 降低R值的衰减速率, 同理, 在网络繁忙时可降低λ值, 加快R值的衰减速率, 以便快速消除网络中的资源隐藏现象;X (n) 是资源预留点在周期J内接收到的带宽保持包中x值的总和。

3.3 撤销申请

当某个申请了资源预留的网络应用结束对话时, 资源预留的申请端需要发出一条退出包, 撤销在其通信链路中各资源预留点上预留的资源量, 以便及时释放所占用的资源。

4 仿真实验

利用图1所示的网络环境对上述资源预留机制进行了仿真实验, 将仿真程序分别配置在各终端, 并设置该网络中的最大带宽值为10M, 以2:3:5的比例分配给1、2、3三个数据级别。在终端A与D、B与D以及C与D间分别建立数据业务。

实验开始时, 终端A申请链路AD间数据级别为1的业务流, 申请带宽为1M;此后终端B申请链路BD间数据级别为1的业务流, 申请带宽为2M, 同时申请链路BD间数据级别为2的业务流, 申请带宽为3M;之后终端C申请链路CD间数据级别为3的业务流, 申请带宽为10M。

通过观测网络中的各链路业务数据的流量, 可发现终端D对终端A发送的级别为1的数据接收速率为1Mb/s, 终端D对B发送的级别为1的数据接收速率为0, 终端D对B发送的级别为2的数据接收速率为3Mb/s, 终端D对C发送的级别为3的数据接收速率为5Mb/s。该实验结果说明, 配置在仿真网络中的资源预留机制发挥了作用, 满足了A申请的数据级别为1的业务, 由于带宽限制拒绝了B申请的数据级别为1的资源预留申请, 从而保证了网络的服务质量。

5 结论

本文提出了一种利用带宽保持进行资源预留的Qo S控制机制, 该机制不仅可以消除网络中的资源隐藏现象, 提高网络资源的利用率, 还可以通过数据优先级的划分为网络提供差异性服务, 为网络中的实时业务提供有力的保障, 提升网络的服务质量。

参考文献

[1]马宏伟, 葛敬国, 秦松, 袁卫华.基于速率测量的资源预留速率调整机制[J].计算机工程, 2010, 6 (13) :242-244.

[2]李秀芹, 兰巨龙.基于标识支持的移动通信技术[J].计算机工程, 2008, 8:97-99.

[3]戴新发, 徐火生, 陈鹏, 等.基于分布策略的微移动资源预留方案.计算机工程, 2008, 35 (15) :114-116.

显示器消耗带宽 第2篇

直到Thunderbolt的出现,情况才有实质性的改变。在此之前,虽然HDMI也尝试过将声音回传、网络等数据功能集成到视频传输通道中,但实际成型的只有数字音频传输,而其他应用模式应者寥寥。当年英特尔推出Thunderbolt接口意在取代同为己出却已被USB-IF主导的USB标准,因此它将自家旗下与HDMI相竞争的DisplayPort视频传输方案整合进Thunderbolt,成为性能高USB、视频超HDMI、免费如USB的“无敌”新标准。然而事与愿违,Thunderbolt标准虽然免费,但是从芯片、线缆到设备和应用的整个生态系统都非常昂贵,原超当年索尼和苹果一意孤行造就的IEEE 1394(Fireware,火线)标准,于是乎最后大规模部署此接口的也只有愿意为特立独行的高性能买单的苹果。

标准高端显示器必备的VESA挂架接口。

历经3代升级,如今的Thunderbolt 3已经逐步走回了兼容的道路,无论是接口电气结构相USB-C妥协还是简化数据或显示线缆连接,都已让用不起它的小伙伴假其形而用上性能略有折损却很廉价的流行标准。对有需求且有财力的用户来说,高达40Gb/s的带宽数倍于USB 3.1,而且可以向下兼容老版本的Thunderbolt、DP以及USB接口,设备连接灵活性、拓扑结构弹性上仍保有优势。

联想ThinkVision X1:不止有4K

ThinkVision并不是显示器市场的新兵,只是很长时间以来它都作为ThinkPad产品的选件出现,如今联想把它单独拿出来推广,出手就是一款令人侧目的产品。沿袭了X1品牌的产品,当然是在造型和性能上出类拔萃的,的确,ThinkVision X1既有纤薄与大屏,又有高性能和高品质,同时还将延展PC应用的选件传统保持下来。

4K高画质显示器也要超薄,X1的实测厚度仅为7.1mm。

X1有着极简的外观设计,圆形的底座、细细的不锈钢制圆柱形脚架支撑起完全由直线条勾勒出的超窄边设计,棱角分明;27英寸的尺寸不算太大,却有着4K(3840×2160)的超高分辨率;6.5mm的超窄边框与7.5mm的超薄机身,使之宛若悬浮于空中的未来屏幕,即便加上屏幕下方的立体声扬声器,其屏占比也高达89%。这样尺寸的高分辨率超薄显示器往往以牺牲画面质量为代价,但X1保持着ThinkVision专业级显示器的表现:10位色IPS屏幕、超过100%的sRGB色域、1000:1静态对比度。此外,它还是一款非常节能的显示器,能效级别为1级,实测最大亮度达到313cd/m2、整机功耗最大仅30.0W,纤薄机身、节能又色彩表现出色,背后离不开3M DBEF(Dual Brightness Enhancement Film,亮度倍增膜)的加入,既能带来最大130%亮度提升又不影响IPS面板可视角度。

此外,X1还集成有1080p@30Hz级别的高清摄像头,可辅助Window 10实现Windows Hello的面部识别,矩阵式双麦克风可更清晰地拾取声音。高规格还是其次,X1的摄像头采用了极为科幻的方式与主机连接,其摄像头/麦克风集成在一条长长的悬臂顶端,通常情况下该悬臂隐藏在屏幕背后,并通过磁吸方式保持紧密相连;向左按下悬臂根部,悬臂整体向右弹出机身之外,摄像头就可以向前探出,结合俯仰调整和左右旋转,可朝向任意方向,满足各类型应用需求,甚至其顶部的补光LED灯都能单独开启,成为深夜中照亮你键盘的那盏小灯。

连接未来

X1的接口配置大变,没有了USB Type B接口,USB-C(右3)取而代之;电源接口(左1)、电源适配器与ThinkPad兼容。

作为一款4K显示器,X1配备了DP1.2、HDMI 2.0等高规格视频接口,也内置了一个4端口的USB 3.0 Hub,然而这都不是它最特别的。

X1是首款采用USB-C 3.1接口传输画面的4K显示器,无论是连接USB-B还是UBS-C接口,只要支持USB视频传输,都能通过附带USB-C线缆与X1相连,无需安装驱动程序就能在Windows 10系统上正确识别显示器。由于USB 3.1带宽有限,所以X1的视频与USB Hub被设置为两种模式:4K+USB 2.0或1080p+USB 3.0,用户可在机身左侧的USB接口旁按键切换两种模式,相应模式切换过程中会有OSD显示,当前使用模式也会用相应LED指示灯标识。除了视频信号,X1上的USB-C接口还同时是扬声器音频、摄像头视频回传以及USB Hub的传输通道,如使用其他专用视频接口,那么同传的信号只有音频而已。

作为笔记本电脑的“一线”解决方案,X1同时支持USB-PD功能,即其USB-C接口可以5V和12V3A输出最大36W电力为笔记本电脑等设备供电,所有线缆归于一统。无论使用哪个通道传输视频,USB-PD功能始终有效。USB-PD功能的存在,让X1不得不使用90W的大功率电源适配器,作为ThinkPad用户的附加福利,该电源适配器接口与ThinkPad相同,均为黄色20V方形接口,两者可互换使用。

带宽资源 第3篇

02英国CEO Ronan Dunne近日在伦敦宽带会议上提出观点, 要求向内容提供商收费以缓解运营商所面临的无线带宽压力。在他看来, 某些内容提供商也许会乐意为他们的业务承载量付费, 这样他们就能够确保其服务质量高于竞争对手。Dunne相信这种改变能够在内容传送领域实现“生态系统的演进”。

事实上, Dunne的观点正是目前很多移动运营商的心声。如今的无线宽带产业已经发生了很大的变化, 从前对网络利用率不高、网络业务承载不够丰富的担忧已经转而变成对网络不堪负载、网络承载业务价值评估等新问题的思考。无独有偶, at&t也对这个问题表现出了忧虑和重视, 他们表示, 无线宽带网络需求近几年成倍地增长, 一方面, 智能手机的高速发展推动了对无线网络的需求, 另一方面, 全球其他无线设备总数也将从2008年的800万部猛增至2014年的8600万部。at&t相关人员称, 该公司预计无线网络运营商提供的无线服务月流量将从2009年的每月9万兆字节增至2014年的每月360万兆字节。

流量被谁侵吞?

iPad的推出带动了整个平板电脑市场的井喷, 同时也让以上问题更为凸显。

2011年1月6日, 第44届国际消费电子展 (CES) 在美国拉斯维加斯拉开帷幕, 据悉将会有70款平板亮相CES, 规格相当庞大, 这足以说明业界对这个产品的青睐。丰富的互联网内容资源、个性化的应用场景和高质量的视频、阅读体验让平板电脑跨越了用户体验的最后一道障碍。这个革命性的变化给运营商, 尤其是给移动运营商提出了难题。

眼下, 传统移动运营商考虑得更多的是在移动环境下客户的使用行为和需求, 因为在平板电脑普及的情况下很多流量通过Wi-Fi或者固定互联的方式侵吞着运营商的网络资源, 而由此给运营商带来的收益却并没有提高多少, 大部分的利润都流向了媒体和内容提供商。最终, 运营商可谓是花了力气却在为他人作嫁衣裳。

这个现象的后果是很严重的, 很多无线宽带服务客户改变了他们的服务期待, 他们并不只是将这个产品作为固定宽带接入的补充, 而是当成固定宽带接入的替代品。而与固定宽带接入这种独享带宽的接入技术不同, 移动宽带在无线接入侧有着带宽共享的瓶颈。因此在多人同时一地使用该产品时, 产品体验就和固定宽带接入就会存在差距。一旦用户规模达到一定程度, 移动网络会不堪重负。在这样的背景之下, Dunne提出的内容分等级服务的理念就非常容易理解了。

价格杠杆的力量

从经济学的角度来看, Dunne的建议是利用价格杠杆来改变运营商原先粗放经营的模式带来的稀缺资源不合理配置现象。因为流量没有分类分级, 内容提供商就不必耗费太多心思去精简他们的内容, 反正流量对他们来说都一样, 能够尽可能多地提供内容以尽可能吸引住客户的关注, 就能带来更多的价值, 内容提供商对网络使用效率基本上无需考虑。但是, 一旦运营商制定规则, 说明业务承载量的不同等级服务, 就通过价格给了内容提供商一个信号——承载网络的质量是稀缺资源, 要想有更好的性价比, 必须努力优化信息的承载效率, 即用尽可能少的流量来承担尽可能多、尽可能有效的信息。这样一来, 内容服务的信息承载效率就也会得到提升。

其实, 早在2010年8月, Google就和电信商Verizon针对网络中立性达成协议, 允许一些公司出资购买较快的联机速度, 以便使用户更快看到其影片等产品。这实际上就是一种在传统开放的互联网上构建质量更好的“私有网络”的分层服务概念。一旦运营商采取这样的措施, 内容提供商就会被迫改善信息承载效率。对此, 包括Facebook、Ebay、Amazon在内的许多互联网巨头纷纷表示反对, 其中, Ebay相关负责人表示, 互联网的开放性是对互联网产业和互联网用户都有益处的正确原则, 具有收费性质的两级互联网无疑会扼杀白手起家的创业公司, 而在牺牲这些势单力薄的竞争对手和小型企业的同时却使在该行业内处于霸主地位的大型企业获益。这一观点充分体现了互联网内容提供商的开放性立场, 它所忽略的一个重要的问题是互联网和运营商网络的差异性。在互联网上那只“看不见的手”的管理模式在运营商网络中并不能够简单地模仿。

视角不同, 对这一模式的理解就会有很大差异。互联网企业习惯于在类似于“尽最大可能保证服务质量”而且“免费”的互联网上提供服务, 因此对Google和Verizon的这个协议感到难以接受;而运营商习惯于在“可管可控的保障服务质量”平台上提供服务, 因此对这个协议会易于接受。

国内运营商推崇网络分层法

回到国内, 中国电信对P2P业务发展造成的带宽吞噬也采取了相类似的手段。P2P一方面带来了新媒体、新视讯等新产业, 可是另一方面它也成为了一个带宽吞噬者, 严重消耗了网络的带宽, 阻碍了其它应用的正常进行, 进而也降低了网络的可靠性。

中国电信在该业务上既不能获得高附加值的业务收入, 又不能满足重点企业对高质、差异化服务的需要, 因此产生了强烈的控制P2P流量的需求。其具体的做法就是将网络分为大客户平面和普通客户平面来提供差异化服务, 确保重点客户的服务质量。这又一次从实践的角度证明了该思路的可行性。

终端的成熟、量产, 已经将移动互联网产业的瓶颈推到了网络承载能力上。运营商提出的分层次网络承载服务的思路, 能否通过改变产业各方利益的分配来实现对该瓶颈的跨越, 进而使产业向下一个高度发展, 值得探讨研究。

如果仅仅是客户付费, 很难判断内容提供商是否有效地使用了网络。

向万亿级高带宽前进 第4篇

硅与光的半世姻缘

1960年,Ted Maiman发明了第一个激光器,而这项发明在最初一段时间内并无任何实际用途,人们还不知道激光可以用来做些什么。半个世纪之后,激光已经成为医药、制造、娱乐领域的重要工具,并且推动了所有远程通信的发展。然而,由于成本的限制,激光及相关的器件还没有成为日常生活应用的常客。

1959年,仙童半导体公司的Robert Noyce(英特尔公司的创始人之一)和德州仪器的工程师Jack Kilby几乎同时发明了基于硅的集成电路,而前者的发明更加适合进行商业化。半个世纪之后,硅集成电路由当初的2个晶体管发展到现在的数十亿个晶体管,并不断提高性能、降低计算成本,摩尔定律更推动着半导体芯片技术持续高速前进,取得一个又一个革命性的技术突破,我们的计算设备也从大型机、小型机,向着工作站、台式机、笔记本电脑、平板电脑、智能手机这样的小型化之路发展。

将半导体制造技术的大批量、低成本、高集成度、灵活扩展等特性,与激光器(及光纤)的超高带宽、长距离、低功耗、无电磁干扰等特性结合起来,这个大胆的设想在英特尔的工程师脑中已经孕育了近10年,并且在过去的六七年时间里一步一个脚印地解决了激光的发射、操纵、结合、分离和探测的技术难题,成功开发并产品化了LightPeak技术(公布于2009年9月24日的秋季IDF大会上),为各种外部设备与PC之间的高速低成本光连接提供了成熟的解决方案。

英特尔公司首席技术官、高级院士兼英特尔研究院总监贾斯汀在大会主题演讲中向人们描绘了2015年利用高速光连线技术的惊人体验。届时,用户将拥有150亿个消费电子设备能够提供电视内容,可供播放的视频将达到成百数千亿个小时。LightPeak技术将提供10Gb,s的高带宽,支持更小的设备接口以及更长、更细、更灵活的主流光连线技术,并可通过单根连线连接任何设备。

从电到光,潜力无穷

现在人们使用的计算机组件都是通过铜缆或电路板上的线路互相连接的。由于使用铜等金属进行数据传输会产生信号衰减,这些缆线所允许的最大长度十分有限。这极大束缚了计算机的设计,迫使处理器、内存和其他组件相互间的距离必须设置在几英寸以内。今天公布的研究成果,使我们向着以超轻超细光纤替代金属连接线路的目标又前进了一步,从而在更长的距离上传输更多的数据,彻底改变未来计算机的设计方式及数据中心的架构方式。

硅光电技术将在计算行业实现广泛的应用。例如,有了如此高速的数据传输速度,你可以想象家庭娱乐和视频会议也能享受墙体般大小的3D屏幕,而且高清的体验会让你感觉演员或者家人似乎就在你身边。未来数据中心或超级计算机的组件可能会分布在整个大楼甚至园区的不同位置,相互之间进行高速通信,完全不同于如今基于容量和传输距离有限的铜线的设计。这将帮助搜索引擎公司、云计算服务提供商或金融数据中心等数据中心用户提高性能和容量、节约空间与能源成本;或者帮助科学家构建更强大的超级计算机来解决世界面临的重大问题。

英特尔首席技术官兼英特尔研究院总监贾斯汀(Justin Rattner)在美国加州Monterey举行的集成光电技术研究大会上展示了这款硅基光电联结系统原型。这个传输速度高达50Gbps的联结系统类似于一款“概念车”,让英特尔研究人员可以在此联结系统上测试新想法,基于成本低廉且易于制造的硅继续开发利用光束在光纤上传输数据的技术,而不是使用像砷化镓这样的特殊材料做成的成本昂贵、制造困难的元件。尽管电信及其它领域已经在使用激光来传输信息,但对于PC行业来说,目前的技术应用成本还过于昂贵且元件体积过大。

贾斯汀表示:“我们的长期愿景是‘硅化’光子,把高带宽、低成本的光通信引入未来的PC、服务器和消费设备中。这款全球首次利用集成混合硅激光器开发的50Gbps硅基光电联结系统标志着实现这一愿景的重要里程碑。”

下下一代的LiqhtPeak技术?

这个50Gbps硅基光电联结系统原型是英特尔在硅光电学领域多年研究的结晶,其中包括了数个“世界第一”的研究成果。它包含一个硅发射器和一个接收器芯片,两者都集成了所有必需的构建模块,并融入英特尔历年来的多项突破性技术成果,包括与加州大学圣塔芭芭拉分校合作开发的第一个混合硅激光器以及2007年发布的高速光调制器和光电探测器。

发射器芯片包括四个激光器,通过它们发射的光束分别进入一个光调制器,而后者则以12.5Gbps的速度对数据进行编码。然后,这四条光束将被集中起来并输出到一条光纤内,总的数据传输速率将达到50Gbps。在联结系统的另一端,接收器芯片会对这四条光束进行分离,并导人到各光电探测器中,后者把数据转换回电信号。两个芯片都使用PC行业常用的低成本制造技术进行装配。通过提高调制器速度和增加每个芯片激光器数量的方式,英特尔研究人员正在努力提高数据传输速率,为未来的Tb/s级光学联结系统铺平道路。Tb/s级光学联结系统可以在一秒钟内完成一台笔记本电脑中所有内容的传输。

虽然这项研究与“Light Peak光峰”技术均是英特尔整体I/O战略的一部分,但是这两项研究是彼此相互独立的,并且LightPeak已经进入到产品化阶段,将在近期内把多协议10Gbps光学联结系统引入英特尔的客户端平台中。然而对于那些数据更加密集的高端应用,以及未来可能成为主流的一些消费级应用,10Gbps的带宽只是一个起点,还远远不够。例如4倍高清(2160p),24位色深、60Hz的刷新率,对数据带宽的需求就将达到11.94Gbps,假如采用48位色深、120Hz的刷新率(3D显示的基本要求),带宽需求将达到47.78Gbps,这就要求英特尔必须持续研究下一代的LightPeak技术,以达到20Gbps甚至50Gbps的性能要求。英特尔今天公布的研究成果,正是为了将来的应用需求所做的技术开发储备。

带宽资源 第5篇

和Infiniium 90000 X系列示波器一起推出的最新测试探头可提供30 GHz的点测探头附件, 其它附件则具有28GHz的带宽, 若一开始仅购买16GHz带宽的探头, 工程师可在未来任何需要的时刻将他们升级到更高的带宽。此外, 90000 X系列示波器提供了40多个针对特定测量的应用软件包, 包括抖动分析、InfiniiScanPlus触发、雷达脉冲信号分析工具以及完整的一致性认证测试套件。

从事高能物理、新兴有线通信标准和高速串行数据链路 (例如USB、SAS、PCI Express) 相关工作的工程师经常需要使用示波器捕获快速或偶发事件和单次事件, 并进行关键的测试与测量 (例如抖动测试) , 从而确保产品符合行业互操作性标准。由于数据传输速率有望在未来数年内突破10Gbit/s, 因此工程师对于示波器带宽的要求越来越高。

网络带宽测量算法研究 第6篇

在现代化的网络测量中网络路径性能参数的测量十分重要, 按照学术定义, 网络路径测量应该包括路径容量测量和路径的可用带宽测量两部分。在这两个测量中, 路径的容量测量是比较容易的, 因为它的容量总是处于静态, 如果路径确定下来, 那么容量也就确定下来了。然而, 路径可用带宽的测量是极其复杂的, 因为它总是随着时间的变化在不断的变化中的。因此, 目前对网络带宽的测量是比较少的, 而且技术是很不成熟的, 应该加大对网络带宽测量的研究。所谓网络路径容量, 就是网络在空载时, 通过IP层发送分组信息时所能达到的最大量, 网络路径是由一个个的网络链路组成的, 其中带宽最小那个链路的数值就等于该网络路径的容量, 也有人将路径的容量叫做瓶颈宽度。

2 Packet Pair测量算法

Packet Pair的概念很早就被踢出了, 最早是为了估算网络拥塞控制时的带宽。后来经过不断的完善、补充, Packet Pair的概念变得更加丰富、全面, 成为网络路径容量测量的一种重要算法, 在现代变得非常流行。

2.1 算法原理

假设源与对象之间是由N条链路组成的, 两个长度相同 (假设都为S) 的组从同一点沿着相反的路径从源端向实施的对象端运行。这两个沿相反方向行进的分组被称为测量报文对, 在这个过程中要求十分严格的, 两个分组在发送时的时间间隔必须很小。我们将在路径中的同一节点收到的前一个报文对的末端到收到第二个的末端的时间间隔用来表示, 这里的就是报文对的间隔时间。报文对在离开源端的时间间隔是可以计算的, 用 (35) 0 (28) S/C0来表示 (其中C0是一个系数, 表示源端对报文对的发送速率) 。当报文通过了i个链路后就会有间隔时间, 这个时间用 (35) i来表示, 到达最终对象时的间隔时间用 (35) n来表示, 而Ci表示的是第i个链路的容量, Cb是最终的测量结果, 既所测路径的瓶颈宽度。

在整个传输过程中, 在到达容量最小的节点之前, 如果第i段的带宽小于第 (i-1) 段的带宽, 那么报文对在经过第i个节点的间隔时间则为 (35) i (28) S/Ci;当经过这个网络路径容量最小的节点以后, 经过测量后报文对的间隔时间应该为 (35) b (28) S/Cb;在此后的传输中, 报文对的间隔时间便稳定下来, 一直保持 (35) b不变, 最后到达接收的对象端 (如下图1所示) 。在接收端的时候我们可以轻易的测量出 (35) n (28) (35) b (28) S/Cb, 这样便可以准确的计算出测算路径的容量, 如下式:

由前面可以看出, 要想运用 (1) 式进行计算, 那么网络必须空载, 即在测量报文对时必须不受其他网络流的影响。然而, 在实际中网络是不可能出现空载的情况的, 在实际测量过程中受到其他因素的影响。因此, 当测算结束后数据不能直接拿来使用, 必须对测算结果进行处理, 从中筛选出没有受到网络负载影响的或者影响较小的部分, 然后对其处理后作为路径容量的测量结果。

2.2 Packet Pair算法分析

在实际中采用网络仿真技术可以对网络的实际情况进行模拟的, 在模拟过程中需要PIV2G处理器微机, 一般使用的是ns-2网络仿真器。用tiers现场快速生成具有6个节点的一条路径, 这6个节点依次是P={100, 75, 60, 45, 65, 80}, 在实际路径中每条链路带宽的单位都是统一的, 那么可以轻易看出这个路径的容量为45Mbit/s。在每一个节点的位置都有由多个源互相合成的负载加入, 在实际模拟中通过对负载流强度的不断变化来模拟出各种网络环境。在最终检验时, 通过对负载强度和测量分组长度这两个因素的不断变化, 来测出很多组数据, 然后来检验这种测算方法的准确性。

在测量时对路径P={100, 75, 65, 45, 65, 80}设定不同的载荷, 然后进行模拟, 得到报文对的长度为1500 bytes.图2表示出了在路径的利用率u为10%和60%时的测量结果情况。

在图2中, 横坐标表示的是带宽值, 纵坐标显示除了测量次数。通过不断的改变测量环境, 然后做了很多次的实际测量, 那么就可以得到同样数量的测量样本, 然后对测量样本进行分类汇总, 根据各测量带宽值的情况得出了图表, 然后通过筛选过滤, 就可以得出数量最多的那个样本值, 然后根据样本值就可以找出对应的带宽。在这个测算中, 采用的是最为传统的柱面过滤中的指导思想。

通过上面图2中的测量结果很容易的可以看出, 在利用率u=10%时, 也就是网络轻载的时候, 大部分的测量的样本值等于真实值, 通过简单的过滤、分析就可以得出正确的路径容量;当利用率u=60%时, 也就是在网络负载较重时, 大部分的测量样本值小于真实值, 如果不进行处理继续对结果过滤后得到的路径容量必然小于真实的路径容量。造成这种现象的原因是由于在网络负载较重的时候, 报文对的两个分组中就很容易插入其他分组, 这样就会造成测量值大部分小于真实值。因此, 如果在网络轻载的情况下, 采用Packet Pair测量算法能够准确的测量出路径的容量, 如果网络重载时, 测量出的路径就比实际结果小很多。

如果将分组情况发生改变后, 那么又得到不同的测量结果。我们对路径P={100, 75, 65, 45, 65, 80}在相同负载情况下, 改变报文对的分组长度, 则可以得到如图3的测量结果。在测算时, 利用率取u=50%。

由图3可以得出, 报文对的分组长度也是影响测量结果的主要因素之一。当S较小的时候, 将小于真值的测量样本弱化了, 又把大于真值的测量样本放大了, 在S较大时, 则恰好与前者相反。由此可以得出, 如果报文对的分组长度较小时, 在报文对中间插入其他分组的概率就低, 但是在带宽最小点后出现故障的情况较多。根据前面的结论我们可以看出:如果在测量中让分组长度S处于动态变化中, 则测量结果更结精确、科学。

3 Double Packet Pair测量算法

通过前述的测量算法我们可以得出, 在测量时很容易在瓶颈的节点处插入其他分组, 从而造成测量的结果偏大, 也有可能在带宽最小的节点后面产生很多排队, 从而造成测量结果的偏大。为了使测量结果变得更加准确, 必须增加测量的次数, 得出大量的测量样本, 这样便会发现更加接近真值的测量样本, 然后通过筛选就很容易的得到测量结果。如果测量次数过多, 这样不仅会花费大量的时间, 还会造成巨大的资金耗费, 而且大多数的测量结果都比实际值小, 不利于测量结果的提高。由于这种算法存在各种缺点, 相关研究人员经过不断的努力、创新, 设计出了一个被称为Double Packet Pair的新型仿真测量算法。

从上面的两幅柱状图可以看出, 不论在什么样的测量环境下, 总会出现与真实值相同的测量样本, 知识随着测量环境的不断变化样本数量也在不断增减。因此, 在测量中可以对检测跟踪, 如果出现没有受到任何干扰的测量样本就可以结束测量, 这样不仅可以节约测量的时间, 也节省了测量费用, 还提高了测量的准确度。为了准确的判断出测量样本有没有受到影响, 可以每次可以同时发送两个不同长度的报文对。这两个报文对的时间间隔变化情况如下图4所示:

在上面的两个报文对中, 规定两个报文对中两个分组的长度相等, 第一个均为S1, 第二个均为S2, 其中要求S1必须小于S2, 这样可以使第二个报文对瓶颈的后续节点不出现排队。规定两个报文对通过容量最小处的间隔时间, 第一个为 (35) 1, 第二个为 (35) 2, 假如报文对不受其他因素的影响, 则可以得出所测路径的容量计算公式:

即有:

即使上面 (3) 式满足, 也不能说明两个报文对没有受到干扰。如果 (35) 2/) 53 (1=那么 (3) 式也成立。为了更好的区分这些, 在选择测量报文对的分组长度时, 就可以筛选出那些干扰因素。我们在这里选取S1=100bytes, S2=800 bytes, 然后采用Double Packe Pair的测量算法对路径P={100, 75, 65, 45, 65, 80}下, 采用不同的负载, 统计出得到正确结果所需要的实际测量次数。

由上面的表可以看出, 采用Double Packet Pair测量算法能够快速的得到准确的路径可用宽度。在网络轻载的情况下, 测量的速度比较快, 如果在网络重载测量, 那么测量的速度会受到影响, 但是还是能得出正确的测量结果。假如从发送信息发最后接受信息端相差20ms的时间, 那么采用Double Packet Pair算法可以在很短的时间内测出正确的路径容量。

4 结束语

随着现代化信息技术的飞速发展和网络规模的不断扩大, 网络环境变得越来越复杂, 要想在实际网络中检测网络路径的容量变得更加困难, 要想得出更加精确的结果几乎是不可能。为了准确的进行网络路径测量, 更好的对网络进行开发维护, 这时候采用数值模拟的计算机网络仿真测量产生了, 这种仿真测量方法不仅具有认为控制的优点, 还能够不断的重复操作, 同时也节约了大量的时间和资金。本文在一定的仿真环境下, 采用packet pair测量算法进行了相关的仿真测量, 针对这种测算方法的缺点, 然后通过Double Packet Pair算法对网络路径的容量进行了精确测量。通过两种仿真方法对比说明, Double Packet Pair的算法更好, 这种方法不仅提高了测算速度, 也提高了测量精度, 值得开发推广。

参考文献

[1]刘敏, 李忠诚, 过晓冰.端到端的可用带宽测量方法[J].软件学报, 2006 (12) .

[2]黄国伟, 吴功宜, 徐敬东.基于排队分析的端到端路径可用带宽的测量[J].计算机研究与发展, 2007 (01) .

网络带宽测量影响因素研究 第7篇

关键词:带宽,背景流量,网络延迟

0引言

带宽是反映网络状态的重要参数, 也是许多网络应用所需要关注的重要信息, 其在内容分发网络、流媒体点播、网络缓存的位置选择和维护策略、端到端访问控制、拥塞控制以及网络安全等方面都有广泛的应用。对具有QoS要求的应用, 如视频点播、视频会议等, 保证一定的必需带宽是网络应用平滑执行的重要条件之一。通过测量及时得到准确的网络带宽信息, 对QoS应用初始启动时的参数配置或执行过程中参数自适应调整, 均具有重要的指导意义。

现有的带宽测量方法很多, 但通常基于如下假设:网络设备采用FIFO策略对所有报文 (不区分探测报文与背景报文) 提供Best-Effort服务;不考虑网络背景流量或仅考虑稳定的背景流量情况下的测量问题;瓶颈链路与可用带宽出现在同一链路。该假设提供的模型显然是一个理想状态, 在实际测量过程中, 上述假设并不总为Internet所满足, 网络的多样性与多变性特别是背景流的突发性可能破坏其成立。因此在选择测量方法之前必须全面考虑带宽测量的影响因素, 明确其对测量结果的作用。

本文按照测量误差的产生原因将这些影响因素分为内部因素和外部因素两个部分, 给出其具体含义, 并对其中的数据包大小、背景流量、网络延迟等重要因素详细说明。

1现有带宽测量技术介绍

带宽测量分为链路带宽测量和可用带宽测量两种。所谓链路带宽, 是指被测链路C能够提供的最大传输速率;可用带宽A指在背景流量存在的情况下, 特定应用可以实际使用的最大链路带宽, 用公式表示为:设此时链路利用率为u, 可用带宽A=C (1-u) 。下面分别给出两种带宽测量的具体方法。

1.1链路带宽测量技术

总的来说, 现有的链路带宽测量技术都是通过向被测网络中注入主动探测包以获取网络时延特性, 通过特定的模型来进行计算的, 主要分为单包技术[1]和包对技术[2]。

(1) 单包技术

其基本思想是利用探测包传输的单向延迟与包大小之间的关系, 进行计算, 如下式所示:

ΟWD=i=1nsCi+Qi+Τi (1)

其中OWD代表数据包的单向延迟, n为路径跳数, Qi为第i跳链路的排队延迟, Ti代表第i跳的传播延迟, Ci表示第i跳的链路带宽。

(2) 包对技术

包对技术是在单包技术的基础上发展起来的。将大小和发送速率相同的两个相邻数据包称为一个数据包对, 当被测网络中不存在背景流量且发送数据包对满足背靠背特征时, 链路带宽可用下面关系求出:

C=sΔout (2)

其中Δout代表包对在接收端的输出时间间隔。

1.2可用带宽测量技术

网络链路带宽在路由选择不变化时, 具有相对的稳定性, 而可用带宽与背景流量相关, 因此它既与路径相关也可随时间不断变化, 这使它更难准确测量。可用带宽的测量方法大体上可分为两类:包间隔模型PGM (Packet Gap Model ) [3]和包速率模型PRM (Packet Rate Model ) [4]。

(1) 包间隔模型PGM

PGM模型通过研究输入输出包间隔的关系直接估算网络背景流量的大小, 利用已知的链路带宽求得被测链路可用带宽的值, 给出计算公式:

A=C (1-Δout-ΔinΔin) (3)

其中Δin代表包对在发送端的输入时间间隔。

(2) 包速率模型PRM

PRM模型利用包对模型通过研究探测数据包的单向延迟变化情况改变探测包的发送速率, 从而直接获得可用带宽值, 给出公式:

ΔOWDi=OWDi-OWDi-1=Qi-Qi-1 (4)

Prob{OWDl>OWDm}>0.5 ∀l>m (5)

根据包对传输的性质, 两个数据包的延迟之差ΔOWDi能够表示成排队延迟之差 (假设数据包传输链路相同, 传输延迟相同;数据包大小相同, 服务延迟相同) 。当发送速率小于可用带宽时, OWD增长的概率小于0.5, 网络延迟状况没有规律;当发送速率大于可用带宽时, OWD增长的概率大于0.5, 数据包在路由中发生排队现象, 网络延迟呈增长趋势, PRM就是利用这个规律, 不断调节发送速率, 最终估计出可用带宽的值。

通过以上分析可以看出, 现有的网络带宽测量方法仅从最基本的网络特征出发, 没有对测量数据包本身作出具体的要求, 也没有考虑复杂的网络流量环境, 这都会导致最终的测量结果出现误差, 本文将从内因、外因两个方面全面总结带宽测量的影响因素, 分析其对测量结果的影响程度, 这为其他新算法的研究提供支持。

2影响因素分析

由于用户在网络带宽测量过程中会受到测量包本身以及外部网络的共同影响, 其测量结果在一段时间内会有一定的规律性和偶然性, 同时大规模网络本身又是一个非线性系统, 因而产生的非线性宏观背景流量具有一定的规律性和突发性, 根据测量误差产生的原因, 可以将测量因素分为内部因素和外部因素, 其中内部因素指带宽测量中主动采用的可知因素, 具体包括测量数据包类型、包大小, 测量包对间隔, 测量包初始发送速率等;外部因素指被测网络中存在的未知因素, 具体包括背景流量、网络延迟、主机因素等。下面我们将结合已有的测量方法对各个因素给出具体表述。

2.1内部因素

内部因素由测量用户决定, 相对于外部因素用户可以根据需要进行调节, 明确每个内部因素在带宽测量中所处的地位, 有助我们减少测量误差, 提高估值精度。

(1) 探测数据包类型

探测数据包类型是影响带宽测量适用范围的一个重要因素。传统的带宽测量主要使用两种探测包, UDP包和ICMP包。UDP包构造简单, 使用方便, 是比较常用的探测数据包, 但是使用UDP包时, 需要测试的双方节点提供软件支持和配合, 可能会给跨域测量带来困难。ICMP数据包利用ICMP协议的echo请求与应答机制, 在进行测量后, 一般设备都会给出应答, 即接收设备监测到源端发送的echo请求包时, 又会向源端发送一个相同大小的应答包, 利用这个特性, 就可以方便地估计出网络双向延迟情况, 但是有些网络设备出于安全考虑, 禁用了ICMP, 这在一定程度上限制了该类型数据包的使用。

(2) 探测数据包大小

探测包大小是测量带宽的一个基本因素。在链路带宽测量过程中, 更是将数据包的大小直接应用到计算中, 同时由于数据包的大小决定了网络服务时间而且也会影响网络拥塞情况, 故在测量过程中, 不仅要明确数据的大小, 更要选取合适的值。

在实际测量过程中人们似乎都倾向于使用通路允许的最大长度的数据包来进行测量, 依据是较大的包抵抗背景流量干扰的能力更强, 但是这种选择策略并没有完善的理论支持, 也缺乏试验验证[3]。我们通过考虑数据包对网络性能, 特别是丢包率的影响来进行研究, 在条件相同的情况下选择不同的数据包, 针对主要的网络应用, 按照出现丢包现象的情况进行比较。文献[5]指出, 在广域网上有三到四种大小的数据包占据着统治地位, 分别是40、464、 576、以及1500字节, 其中大小为40字节的数据包主要由TCP确认包组成, 464字节的数据包主要源自UDP类应用, 576字节的主要传输的是Mail数据, 而1500字节的数据包主要也源自TCP数据包, 它是现实网络中传输的最大长度的数据包, 比其大的数据包并不常见。主要的网络业务包括HTTP、FTP、Telnet等, 根据这些现实情况, 我们利用NS2工具, 选取1000byts以下的11种长度的数据包和三种主要网络应用进行仿真, 从中找出规律, 给出结论。图1为仿真模型图。

其中 (Ns, R) 代表网络应用流量, (Ps, R) 代表探测包流量, (Cs, Cr) 代表网络背景流量, 各个链路的带宽值如图所示, 对于网络背景流量, 我们选取Single-hop流量模型展现其突发特性, 且背景流量数据包大小我们使用固定的1000byts, 给出仿真结果, 如图2所示。

从上述图表可以看出, 对于FTP、HTTP、Telnet这三种应用而言, 均呈现出一定的规律。对于FTP、HTTP而言, 当测量包长为850字节左右时, 丢包率最小。对于Telnet而言, 当测量包长为600字节左右时, 丢包率最小, 当测量包长为850字节左右时, 丢包率次小。可以得出:当测量包长为850字节左右时, 测量对这三种应用的影响均较小。我们认为这是由于背景流量存在的情况下, 测量包越小, 到达速率越大, 与应用流量争抢就越激烈;数据包越大, 占据缓冲时间就越长, 争抢也就越激烈, 因此, 应该存在一个相对平衡值, 使得丢包率最小、性能最好。

(3) 探测数据包对间隔

探测数据包间隔是测量带宽的一个基本因素。PGM模型和PRM模型都用到了这个数值, 在具体测量过程中应该选择适当的初始数据包间隔, 对于包对模型来说, 一般采用等距数据包间隔, 当然也可以采用符合一定规律的间隔进行测量, 但都必须保证数据包发送间隔可测量、可控制, 避免因为测量数据的不明确产生的误差。

(4) 探测数据包初始速率

测量包初始发送速率是测量带宽的一个基本因素。在PRM模型测量中, 就是通过不断的调整测量包的初始发送速率才能够得到可用带宽值。在具体的测量过程中, 我们需要注意, 如果没有特殊的要求, 一般都使用测量主机能够产生的最大发送速率进行测量, 然后根据需要逐步调节, 这是因为如果不能保证速率大于可用带宽, 那么在测量过程中探测包易受到背景流量的影响, 且不能根据接收情况正确判断速率与可用带宽之间的关系, 也就无法准确调节发送速率。

2.2外部因素

外部因素由网络环境等不可知因素决定, 是带宽测量产生偏差的主要原因。详细分析背景流量、网络延迟等影响因素, 有助于改进现有测量方法。

(1 ) 背景流量

背景流量是网络带宽测量误差产生的主要因素。不同类型的背景流量产生原因不同, 影响程度也不同。现有的网络背景流量可以分成两大类:Path Persistent背景流量和Single-hop背景流量, 前者指对于网络节点Nn-1来说, 其后续链路Ln上存在的背景流量也是通过其前趋链路Ln-1的背景流量;后者指对于链路Ln来说, 该链路上存在的背景流量不在链路Ln-1上存在, 即该背景流量到达节点Nn-1之前的途径并非Ln-1。其网络拓扑图如图3所示[6]。

如果网络中只存在Path Persistent背景流量, 那么带宽测量就不会出现太大的误差, 网络带宽测量的误差主要来自Single-hop背景流量[7]。下面, 我们以可用带宽测量的方法为例, 分别分析Single-hop对PGM和PRM的影响情况:

· 针对包间隔模型的影响

基于PGM模型的方法没有考虑Single-hop背景流量的情况。当数据包经过瓶颈链路发生排队时, Single-hop背景流量使得输出间隔无法确定, 这种背景流量只能根据前跳的输入间隔和带宽之间的关系进行估计, 给出基本公式如下:

Xi= (Ci-Ai) Δ (i-1) Δi=[ (L+Xi) /Ci]

(6)

其中Xi代表背景流量, i为链路, Δi代表链路i的输入间隔。因为Single-hop背景流量的突发特性, 我们不能单纯考虑输入输出包间隔, 而需要引入探测包的速率Ri, 通过对速率变化的规律得到包间隔的变化特征, 我们将包速率与可用带宽进行比较, 找到输入输出间隔之间的关系:

Ri-1>Ai (L+Xi) |Ci>Δ (i-1) Δi=L+XiCi=Ri-1Δ (i-1) + (Ci-Ai) Δ (i-1) Ci

即:Δi=Δ (i-1) (1+Ri-1-AiCi)

我们得到下面结论:

{Ri-1>AiΔi=Δ (i-1) (1+ (Ri-1-Ai) Ci) Ri-1AiΔi=Δ (i-1)

(7)

为方便证明, 我们只考虑双跳模型,

如果瓶颈出现在第一跳, 即C=C1, 则C1<C2, A1<A2, 那么根据初始速率条件, 能够保证Rin=C1≥A1≥A2, 则根据公式 (7) 就可以得到:Δ2=Δ1 (1+R1-A2C2) , 将其代入公式 (3) , 得到可用带宽值, 即:

A=C1 (1-Δ2-ΔinΔin) =A1-C1C2[C1-A2 (1+u1) ] (8)

显然得出的结果与实际相差较大, 产生误差。

如果瓶颈出现在第二跳, 即C=C2, 我们只考虑Rin≥A1的情况 (当Rin<A1时, 不会出现测量误差, 包间隔保持不变, 原有方法准确) , 在这种情况下, 根据公式 (7) 可以得到:

Δ1=Δin (1+Rin-A1C1)

代入公式 (6) , 就可得经过第一跳之后的速率R1, 即:

R1=C1C2C1+C2-A1

显然满足公式 ( (7) , 我们就可以得到输出间隔:

Δ2=Δ1 (1+R1-A2C2)

代入公式 (3) , 可得可用带宽测量值, 即:

A=C2 (1-Δ2-ΔinΔin) A (9)

通过上面的分析, 可以证明在Single-hop背景流量情况下, 使用PGM模型测量的网络可用带宽值偏低。

· 针对包速率模型的影响

基于PRM模型的方法会因为OWD增长趋势的判断失误而产生偏差, 如果背景流量的速率不变, 那么探测包传输的状态恒定, 同时插入到每个数据包中的背景流量数目也是一定的, 在这种情况下, 如果探测包速率大于可用带宽, 那么排队延迟就是一个渐增且平滑的, 低于可用带宽时, 就不会出现排队延迟。但是当Single-hop背景流量产生时, 会产生强烈的突发特性性, 以至于OWD的变化趋势无法确定, 测量产生误差, 针对这种情况, 我们给出图形表达式进行证明, 如图4所示。

当输入速率大于可用带宽, 应该在瓶颈处进行排队, 输出间隔将是一个递增的序列, 但是, 背景流量会使该递增序列成为一个递减序列 (如图4所示) , 此时, 根据间隔情况就无法判断发送速率同可用带宽之间的关系, 产生误差。

(2) 网络延迟

网络延迟是测量带宽的一个基本因素。在单包测量网络链路带宽的方法中直接使用了网络延迟的数据;我们将对数据包在瓶颈链路的排队情况进行分析, 找出网络延迟的固有特性, 这对改进测量方法有十分重要的作用。

考虑一个数据包对在网络背景流量下的情况, 设两个相邻数据包在背景流量影响下, 插入k个数据包, 且k个数据包到达队列的时间间隔为均匀的, 可以得到每个数据包接受处理的平均时间为:

m=Δout/ (k+1) (10)

其中m为平均处理时间, 分析第i+h个数据包的情况, 1≤hk, 它到达队列的时间为Ρi+h=Ρi+h[ (Δin (k+1) ]

假设如果第i个数据包到达队列时前面有p个数据包正在或者等待处理, 数据包进入排队状态, 那么当第i+h个数据包到达队列时, 正在等待的数据包数目为p- (Δinm) +h个, 则, 第i+h个数据包的排队延迟Qi+h为:

Qi+h=[p- (Δinm) +h]m

将其变形为:

Qi+h= (p-Δin/m+h) m=pm-Δin+hm=Qi+hΔout-Δink+1=Qi+hδk+1 (11)

其中δ为包延迟差值, 我们得到第i+h个数据包的延迟时间di+h为:

di+h=Τi+h+Qi+h+Si+h=di+hδk+1 (12)

我们发现在网络背景流量存在的情况下, 数据包的延迟与两端探测包的延迟之差存在线性关系, 这样就给我们在带宽测量中网络延迟数据的获取提供了一种思路, 可以通过反复测量得到网络延迟的近似值, 减少单纯测量网络时延带来的不便。

(3) 主机因素

主机因素是影响带宽测量的一个重要因素。主机的处理能力可能会限制带宽测量的速度, 而主机的最小定时粒度又会影响带宽的测量范围, 在测量高速网络尤其应该注意。

(4) 其他因素

其他外部因素还有路由策略、缓冲区大小等。现有的路由策略分为公平队列、先进现出 (FIFO) 以及小报文优先等, 不同的路由测量对策略方法可能会有显著影响。这在相关资料中已给出测量数据[8]。有限的缓冲区可能使探测报文丢失, 这将增大获取足够的有效探测数据的困难, 甚至可能导致错误的测量结果。

3结论

在设计网络带宽方法和进行具体试验中必须全面考虑网络带宽测量的影响因素。通过以上的分析, 我们可以认识到, 数据包类型及数据包大小等内部因素决定了网络测量的精度, 背景流量、网络延迟等外部因素会影响测量模型的适用范围。综合考虑, 全面分析这些影响因素, 有助于研究新的测量方法。

参考文献

[1]Jacoboson V.Congestion Avoidance and Control.In Proc.SIGCOMM, Stanford USA, Sept, 1988.

[2]Keshav S A.Control-theoretic Approach to FlowControl.In Proceedingsof SIGCOMM, Sept 1991.

[3]Dovrolis C, Ramanathan P, Moore D.What do packet dispersion tech-niques measure, in Proceedings of 10thIEEE INFOCOM, Apr.2001.

[4]Ribeiro V, Riedi R, Baraniuk R, et al.Pathchirp:Efficient AvailableBandwidth Estimation for Network Paths.PAM, Apr.2003.

[5]Pack Sizes and Sequencing.http://www.nlanr.net/NA/Learn/pack-etsizes.html.

[6]刘敏, 李忠诚, 过晓冰, 等.端到端的可用带宽测量方法[J].软件学报, 2006 (1) :108-116.

[7]Brian Robinson, Vincenzo Liberatore.On the Impact of Bursty Cross-Traffic on Distributed Real-Time Process Control.IEEE, 2004.

网络可用带宽测量方法综述 第8篇

关键词:网络,可用带宽,测量方法

随着Internet的快速发展,网络规模不断扩大,网络应用在为人们的生活带来便利的同时,也对网络的服务质量提出了更高要求。由于网络规模巨大,拓扑结构复杂,使得研究者难以对网络分析建立起精确的数学模型,因此网络测量成为网络行为学研究的主要途径。

1 网络带宽测量概述

带宽是网络路径的重要参数之一,带宽测量的发展有助于网络应用程序改善和提高服务质量,其在容量分配、服务质量管理、服务器路由选择等领域均有广泛的应用。

目前,网络带宽测量研究得到了较快发展,在国际和国内有许多科研机构和大学都在对其进行研究并取得较多成果,在本文中对这些技术进行简单介绍和比较分析。

1.1 相关概念

链路带宽:即链路容量,指的是链路在物理设计上能够达到的最大数据传输速率(IP层),一般是一个固定值。

瓶颈带宽:两个节点之间路径上的最小的链路带宽,它表示一条路径的最大传输速率。对于大多数网络来说,两个主机之间的瓶颈带宽不会改变,也不受网络流量的影响。如果用(C0,C1,C2,…,CH)表示一条从源端到目的端的路径,H表示路径的跳数,Ci表示链路i的链路带宽,那么瓶颈带宽可用公式(1)表示:

链路的可利用带宽:链路上未被背景流占用的剩余带宽。

路径的可利用带宽:一条路径中最小的链路可利用带宽(下述以可用带宽代替)。按公式(1)的定义如果ui(0≤ui≤1)表示链路的利用率,那么路径的可利用带宽A可用公式(2)表示:

窄链路:瓶颈带宽所在的链路。

紧链路:路径的可利用带宽所在的链路。

1.2 网络带宽测量分类分析

网络带宽测量可依据不同标准划分为不同类别。在本文中,我们主要关注根据测量指标的分类,即将带宽测量分为端到端带宽测量和链路带宽测量;端到端测量技术主要测量路径的容量和可用带宽;链路带宽测量主要测量路径中的各链路的容量和利用率。

可用带宽的测量有实时性要求,而链路带宽和瓶颈带宽的测量一般没有实时性要求。通过测量瓶颈带宽可以为可用带宽测量提供基础,而已知端到端链路径带宽和各链路带宽,则可以知道瓶颈带宽。在本文中,我们主要对端到端的可用带宽测量进行深入介绍和分析。

依据测量方式不同,可用带宽测量又可分为主动测量和被动测量。主动测量[1,2]通过向网络发送探测数据包,并根据它们所携带的信息来推测带宽的情况,主动测量将增加网络的负载,对测量结果的准确性也有影响;被动测量[3]不向网络发送数据包,而是监听网络中的流量来测量网络的带宽,被动测量不会增加网络的负载,但它部署起来却相对困难,一般需要配有专用设备或拥有特殊权限,这对于普通用户来说不太容易实现。

主动测量的优点有:使用方便,适合端到端的网络性能测量,对于需要关心的内容只要在本地发送测试包观察网络的响应即可;由于该方法不涉及用户的网络信息,所以对用户而言是很安全的;其缺点是:增加了网络潜在的负载,尤其是如果该测量未经仔细设计,使产生的流量达不到最小,可能会对网络造成较大的影响。

被动测量的优点有:测量的是网络上的真正流量;能够达到对观察点网络行为的详尽理解;其缺点是:被动测量方式可能要查看网络上的所有数据包,容易捕获网络中的敏感信息,给用户信息的保密和安全带来一定威胁;只能获得网络局部数据,无法了解网络整体状况;测量范围受限。

由上述分析得知,主动测量和被动测量互有利弊。但是,由于不断增长的、分布化的互联网不利于网络状态信息的共享;在高速发展的互联网上存储流量数据需要巨大的空间,并且不便于管理数据;而且由于企业竞争和保密的需要,网络服务提供商(ISP)一般不会向公众提供查询路由器上流量信息的权限,也不允许在网络内部随便设置监测点。这些因素都会对被动测量结果造成阻碍和影响,因此,为获得网络内部的准确状况,有必要采取主动测量的方式[4]。

2 主动可用带宽测量方法分类分析

就目前而言,主动可用带宽测量方法主要基于以下三类模型:

1)基于报文间隔模型(PGM),如Spruce[5],IGI[6]和Delphi[7];

2)基于报文速率模型(PRM),如Pathload[8],Pathchirp[9],PTR[6]和TOPP[10];

3)基于网络流量模型;

其中,基于网络流量模型的测量技术利用多分形小波模型MWM(Multiracial Wavelet Model)[9]能很好地反映出流量分形特性的特点,通过流量模型来估算在一定的时间范围内路径中的背景流量,以此得到可用带宽;其难点在于不容易建立一个符合实际情况的真正完善的端到端模型。该模型的一个前提假设是路径只在某一条链路上经历一次较长时间排队延迟,而在其他链路中的延迟足以小到忽略不计;若路径在多处链路处有较大延迟或者窄链路与紧链路不是同一条链路时,该模型目前还难以得到较准确的测量结果。

相比之下,基于PGM和PRM模型的测量技术较为成熟,它们有几个共同的前提假设[5]:一是网络路径上所有路由器的排队模式都是先进先出(FIFO);二是背景流处于平稳状态;三是背景流的平均速率变化比较慢,并且在单个测量周期中保持恒定。PGM模型还有一条假设,即路径上容量最小的链路(窄链路)和可用带宽最小的链路(紧链路)必须是同一条链路。文献[6]中指出,PGM实际上是测量路径上容量最小的链路的平均可用带宽,当容量最小的链路不是可用带宽最小的链路时,会出现较大的测量误差。

下面我们分别对PGM和PRM模型进行简单分析比较。

2.1 报文间隔模型(The probe gap model,PGM)

PGM模型是目前较为流行的一种可用带宽测量方法,其测量前提是需要已知路径各链路C容量。如图1所示,PGM源端以一定速率向接收端发送测试包对,设发送的测试包对间隔为△in,接收端得到的包对间隔为△out,并假设路径只有一条紧链路,在该路由器上测试包对之间的队列不能为空,即第一个测试包离开之后后第二个测试包完全到达之前还有背景流在路由器缓冲区排队,这样,在接收端得到的测试包对的间隔△out为△in加上在△in时间路由器输出缓冲区的竞争数据包的传输时间。这样,传输背景流量的速率为[(△out-△in)/△in]×C,其中C是紧链路容量,则可用带宽可由公式(3)得到:

PGM模型的代表工具有IGI、Spruce等,另外,文献[11]在此基础上改进了PGM模型,提出一种较新颖的算法showneck。

2.2 报文速率模型(The probe rate model,PRM)

PRM模型的思路比较简单,即利用自导拥塞思想进行带宽测量。

PRM测量原理:当测试报文发送速率小于链路带宽时,传输时延相对固定,由网络物理特性决定;当测试报文发送速率大于某链路带宽时,网络出现排队现象,传输时延增大,则导致时延增大的发送速率转折点A处对应的速率即代表了该链路最大可用带宽,即路径可用带宽。PRM模型基本思想如图2所示,其中横轴表示测试报文发送速率,纵轴表示测试报文传输时延。

PRM模型测量方法不需要已知瓶颈带宽,但背景流突发性可能会使可用带宽的测量结果失真,从而带来测量误差;同时,不断逼近的过程并不等价于测量精度的不断提高,算法的收敛条件与运行时间不易确定;另外,该测量方法需要发送大量测试包,测试时间较长,且会对网络造成拥塞。

PRM模型的代表工具有Pathload、Pathchirp等,另外,文献[12]在此基础上改进了PRM模型,提出一种较新颖的算法SLDRT。

3 IPV6背景下PGM模型的优势

基于PGM模型测量有两个必要假设前提:

1)路由器对于到达的数据包采用先进先出(FIFO)的方式调度、转发;

2)测试流中的所有分组路径一致;

实际上这是不容易做到的,尤其是第二点;原因在于[13]:

1)测试流和背景流量具有相同优先级,当测试流被首尾相连地发送时,并不能像事先设想的那样被分开,即第一个和最后一个报文到达目的地的时间间隔并不能很好地反应带宽的情况;

2)所有测试报文转发过程中选择的路径并非一致;

IPV6的出现为PGM模型解决了部分问题。IPv6包头中定义了20bit的流标签字段和8bit的流量类型字段[14]。流标签字段用于标识IPv6路由器需要特殊处理的包序列,因此,若将探测流中所有报文的流标签字段定义为统一值,即可保证探测流所有报文在转发过程中选择固定且唯一的路径;同时,利用IPv6报头中流量类型字段可定义探测流级别为IPv6报文中的最低优先级,源节点和转发路由器只有在没有其他数据进行处理时才会处理探测报文,使之不会对链路中的正常背景流产生影响,测量时可以较小的间隔发送大量探测流得到测试结果,提高测试效率。

综上所述,我们可以发现,IPV6中出现的某些新特性确实可以为PGM模型提供一些改进之处,这点使得在IPV6的可用带宽测量中,越来越多的人倾向于PGM模型的变形和改进;而对于PRM模型,现在能做到的改进只有怎样能更快速更准确的找到数据流在某个路由器的溢出点[15]。

4 小结

宽带网如何摆脱带宽之困 第9篇

“我已经无法忍受这样的网速了。”一位网友称,下个小程序要等半个小时,看个大片总是关键时刻卡屏,浏览个视频还模糊一片、跳个不停,如今的宽带网速让他想起了“小猫”的时代。

据互联网上的一份调查显示,仅有3.5%的网友对宽带服务表示满意。而大部分网民对“速度太慢,带宽有瓶颈”和“上网费偏高,各地悬殊大”的问题则是怨声载道。

虽然,近年来中国的宽带一再提速,如今部分地区的ADSL包月用户已经可以享受到4 Mbps带宽,然而这样的局部提速也难以应对爆增的中国网民给网络带来的压力。同时,国内目前互联网视频下载、音乐下载已经成为网民流行的行为,P2P(点对点)传输以及P2P流媒体更成为热门应用,网络淤塞的情况正在加剧。

何况,中国目前的宽带网速还难以与网络发达的国家相比。据悉,目前日本平均宽带上网速度是93.7Mbps; 韩国平均宽带上网速度为49.5Mbps; 同样面对广阔国土和地区差异问题的美国也达到8.9Mbps。

“我用了好几年ADSL宽带了,下载速度最大200K,最小2K,其中90%的下载速度显示小于20K,根本看不出是几兆的宽带。”一位网友抱怨道。

有业内人士称,其实从用户所在楼宇的交换机到用户家的网络端口的理论最高传输速度,并不等同于网民上网的实际速度。而且,局域网(LAN)宽带是共享带宽,如果很多人同时上网,速度将大打折扣。

带宽带来成本压力

相比普通用户,企业更被日益紧张的带宽折腾得够呛。

带宽对于如今正在转向互联网和服务的IT企业来说就是“命根”,一旦带宽出现危机,所有的依托互联网的服务业务都将成为空谈。

为了应对带宽危机,各大IT企业都将带宽保障视为重中之重,并斥巨资购买服务器和带宽。

中国的百度、腾讯等互联网公司被国际服务器厂商视为“肥美”的大客户。

博客、社区、视频等新兴网络企业的命运更是受到带宽的左右。刚刚获得新一轮风投的中国土豆网、优酷网等视频分享网站,也将大部分资金用于购买带宽和服务器。

随着网民的日益增长,带宽的购买就像无底洞,巨大的成本压得中国的新兴网络企业喘不过气,甚至一些新的网络应用未见成效就过早夭折。

另据CNNIC统计,目前国内每个网民平均出口带宽仅为1.93Kbps。枯燥的数据背后,是我们浏览海外网站,以及老外浏览中国网站的“蜗牛速度”。对于走向国际的企业,窄小的出口带宽更是制约了他们的脚步。

日益紧张的带宽问题已经成了中国互联网发展,甚至是经济发展的制约。

宽带提速迫在眉睫

面对这一问题,作为中国的运营商,电信和网通对于扩容问题已经设计好了路线图,并逐步开始实施“光进铜退,光纤到户”。

中国电信认为,目前“光纤到户”的部署已进入经济可行阶段,预计在2009年将进入大规模建设阶段。

据称,网通计划将投资150亿元对部分地区铜缆进行改造,同时新增网络将使用光纤,预计在3到5年内建成。今年中国网通主导的北方10省(区、市)大中城市将实施光纤到户,现有用户网速受限制问题将得到解决。

而最近世界首条海底高速直达光缆正在建设中,无疑是条振奋人心的好消息。“来自中美韩三国的6家电信公司共同投资5亿美元修建跨太平洋直达光缆系统,建成后带宽将达5120G,比现有连接中美的海底光缆带宽提高约31倍。”网通工作人员介绍,“海底光缆建成后,将为中美间网速提供更快速率。”

直扩系统最佳干扰带宽研究 第10篇

直接序列扩频 ( 以下简称“直扩”) 通信技术是扩频通信技术的主要方式之一。由于其具有强抗干扰性与低检测率特性, 在军事与民用通信领域中已得到普遍应用[1]。尤其在电子战、考试防作弊和保密会议等应用场景下, 对扩频通信的有效干扰成为关键。因此, 对直扩通信系统的干扰研究具有重要的现实意义[2]。

衡量对数字通信系统干扰效能的最重要指标是误码率, 误码率越高, 干扰效果越好。直扩系统在高斯白噪声干扰时, 系统误码率与接收机末端的干扰功率有关, 干扰功率越大, 误码率越高, 干扰功率越小, 误码率越低。但是提高干扰信号输出功率需要较高的成本。本文研究了在干扰信号输入功率一定的条件下, 干扰信号的带宽对干扰信号输出功率的影响。

1 直扩系统基本原理

直扩系统是将所要发送的信息用伪随机序列扩展到一个很宽的频带上去, 在接收端用与发送端相同的伪随机序列对接收到的扩频信号进行相关处理, 从而恢复出发送的信息。由于干扰信号与伪随机序列并不相关, 在接收端将干扰信号进行扩展, 使落入信号频带内的干扰信号功率大幅度降低, 从而提高了系统输出的信噪比, 达到抗干扰目的。一种典型的扩展频谱系统如图1所示[3]。

扩频系统主要由信源、信源编译码、信道编译码、载波调制与解调、扩频调制与解扩和信道6大部分组成[4]。信源编码用来去掉信息的冗余度, 压缩了信源的数码率, 提高了信道的传输效率。信道编码是增加信息在信道传输中的冗余度, 使其具有检错或纠错能力, 提高了信道传输质量。载波调制使经信道编码后的符号能在适当的频段传输, 如短波频段和微波频段等。扩频调制和解扩是为了某种目的而进行的信号频谱展宽和还原技术。与传统通信系统不同的是, 扩频通信在信道中传输的是一个宽带的低谱密度的信号。

2 最佳干扰带宽

2. 1 最佳干扰带宽的理论推导

假设直接序列扩频系统的扩频码是m序列, 并且一个周期的扩频码传输一个信息码元。伪随机码码元宽度为Tc, 一个周期内包含N个伪随机码码元, 信息码码元宽度为Tb, Tb= NTc [5]。因此, 信息码信号带宽为: fb= 2 / Tb= 2Rb, 扩频后射频信号带宽为: fc= 2 / Tc= 2Rc, fc= Nfb。所以该系统的扩频增益为: Gp= fc/ fb= Rc/ Rb= N。

假设干扰信号的频率与接收机的中心频率相同fj= f0, 并且干扰信号的功率均匀分布在其带宽内。即干扰信号为:

干扰信号n ( t) 的带宽为[- Mfb, Mfb], 其中M为干扰信号的相对带宽 ( M为正整数) , 则干扰信号的功率谱密度均匀地为[6]:

式中, PJ为干扰功率。

接收机接收了干扰信号J ( t) 后, 对其进行解扩处理, 即干扰信号J ( t) 和本地扩频码c' ( t) 、本地载波相乘, 并通过累加清除器。由于直扩系统的主要工作在同步跟踪阶段, 那么干扰信号主要作用在载波和本地扩频已同步时。所以假设直扩接收机的收端扩频码已经和发端扩频码同步, 并且本地载波也和有用直扩信号在同一频率上, 则相乘后得到:

累加清除器的功能是完成数字抽取滤波, 用来滤除中频采样信号和经过数字相干解调处理后信号频谱中的高次谐波分量。在时域上, 累加清除器就是对输入的数字信号每N个采样点进行一次累加然后输出。在直扩系统中, 累加清除器就是对一个信息码内的抽样点进行累加然后输出, 并置零; 在下一个信息码前沿到来时, 再进行累加输出。因此, 需要控制累加清除器的输出、清零时间和信息码严格对齐。在频域上, 累加清除器相当于一个低通滤波器, 并且累加清除器的累加长度影响了低通滤波器性能。

2个相互独立的信号在时域上的乘积, 就是功率谱密度在频域上卷积。从频域上来分析, 干扰信号到达直扩接收机末端, 落入接收机通带内的平均功率σ2为[7]:

PN码的功率谱为:

在频域上, 伪随机码和干扰信号相卷积, 再通过低通滤波器, 其截止频率为ƒb。带限高斯白噪声信号和伪随机码卷积的过程是: 将干扰信号频谱中心位置搬移到伪随机码的每一个谐波频点处进行加权, 加权值就是伪随机码在该频点处的功率谱大小。卷积后落入低通滤波器内的功率总和就等于干扰信号在接收机末端的功率。

如果信号带宽较窄, 卷积后的高次谐波分量无法落入低通滤波器的通带内, 就会造成能量损失。如果增大干扰信号带宽, 虽然可以利用高次谐波分量, 但是由于干扰功率为定值, 干扰信号的功率谱值就会随之减小, 高次谐波分量的加权值也较小, 并且最终落入低通滤波器带内的能量也不一定会持续增大。由此可以推断出存在一个最佳带宽, 使得在利用高次谐波和获得较大干扰信号功率谱值之间找到一个最佳点[8]。

推导如下, 将式 ( 2) 和式 ( 5) 带入式 ( 4) , 根据ƒc/ƒb= N, 则有[9]

由式 ( 6) 可以看出, 干扰信号在直扩接收机末端的输出功率与干扰功率PJ成正比, 并且和干扰信号相对带宽M以及直扩接收机采用的扩频码m序列的周期N有关。由于扩频码的周期N =2r- 1为一个定值。所以在干扰信号输入功率一定时, 干扰信号输出功率仅与干扰信号的带宽有关[10]。

2. 2 最佳干扰带宽的 MATLAB 仿真

当PJ= 1 W, 以6阶的m序列为例, 其周期N = 26- 1 = 63。根据式 ( 6) 得到干扰信号输出平均功率与相对带宽M的关系如图2所示。

由推算结果可以得出干扰信号应有一定宽度, 但也不是越宽越好, 当带宽超过一定程度后, 在同样功率的情况下其干扰效果将快速下降。干扰信号输出功率存在一个最大值, 即存在一个最佳相对带宽, 使得干扰信号输出功率最大[11]。对于N =63, 最佳相对带宽M =13。

根据式 ( 6) 可以得出不同阶数PN序列的最佳相对带宽值, 如表1所示。

3 结束语

直接序列扩频信号被认为是一种低检测概率信号, 具有低功率谱密度发射的隐蔽性, 伪随机编码的保密性, 以及信号相关处理的抗干扰性等良好的性能。因此对直扩信号进行干扰将非常困难, 为达到良好的干扰效果, 必须保证干扰信号经接收机解扩后的干扰功率足够大。直扩通信的干扰问题研究是非常困难的, 本文通过分析直扩信号的处理过程, 得出干扰信号的最佳干扰带宽。干扰信号只有在一定带宽的情况下才能保证解扩后干扰信号功率最大, 使系统达到最佳干扰效果。

参考文献

[1]刘大志, 李立萍.对直扩信号压制干扰的最佳干扰信号带宽的研究[J].电子对抗, 2005:18-20.

[2]管吉兴, 陈荣, 高跃清, 等.一种扩频接收机的设计分析[J].无线电通信技术, 2011, 37 (5) :58-61.

[3]林文长, 赵维维.一种新的扩频信号信噪比估计算法[J].无线电工程, 2012, 42 (1) :21-23.

[4]梅文华, 王淑波, 邱永红, 等.跳频通信[M].北京:国防工业出版社, 2005.

[5]查光明, 熊贤柞.扩频通信[M].西安:西安电子科技大学出版社, 1990.

[6]KAJIWARA A, NAKAGAWA M.Spread Spectrum Demodilator Using Block Signal Processing[J].IEEE International Conference on Communications, ICC91, 1991:894-898.

[7]POISEL R A.现代通信干扰原理与技术[M].陈鼎鼎, 译.北京:电子工业出版社, 2005.

[8]易定海.对扩频通信系统干扰的仿真研究[D].西安:电子科技大学, 2008:30-34.

[9]张欣.扩频通信数字基带信号处理算法及其VLSI实现[M].北京:科学出版社, 2004.

[10]袁磊.FH/DS混合扩频通信系统及其抗干扰措施的建模仿真[D].成都:电子科技大学, 2007:19-26.

上一篇:预科数学下一篇:把握教材创新教法