多智能体建模范文

2024-07-31

多智能体建模范文(精选9篇)

多智能体建模 第1篇

计算机生成兵力 (CGF) 是指在分布式仿真环境中由计算机生成和控制的仿真实体[1]。这些实体能自主地对仿真环境中的事件和状态做出反应, 实现其角色和职能[2]。工程机械CGF是指由计算机生成的虚拟工程机械角色, 该角色是工程机械分队的成员, 能自主或相互合作完成指定的工程任务, 其行为由计算机CGF模型控制。引入工程机械CGF能为参与分布式虚拟训练的人在回路工程机械模拟器提供友邻支持, 既减少了系统成本又提高了分布式训练系统的灵活性。此外, 采用计算机生成兵力技术还能对部分训练意义不大的辅训机械装备 (如压路机、自卸卡车等) 进行仿真, 扩大工程机械分布式虚拟训练系统训练科目范围。

智能体建模技术由于其先进性已经在CGF实体建模中被广泛采用。通过建模将战场角色映射为相应智能体, 这些实体智能体能加入到虚拟战场环境中自治运行, 并相互协作, 模拟真实作战单元的各种行为。

1基于多智能体的CGF建模

1.1相关研究

文献[3]从认识处理角度提出了CGF行为建模的继承框架和基于行为基的智能体建模方法, 提出了指挥控制建模的一般框架C2MF。文献[4]研究了基于BDI理论的智能体认知模型、智能体组织协作模型以及多智能体通信机制

文献[5]对潜艇CGF技术进行了研究, 提出了称为BDM的智能体思维状态模型。在此基础上提出了层次结构的智能体决策行为框架, 在潜艇战术训练系统中进行了初步应用。

以上研究基本上采用的是混合型智能体结构。对混合型智能体的认知层, 目前仍是在理论研究阶段, 得到的理论模型只是经过了初步应用。说明现有混合型结构智能体要实现对慎思智能体和反应智能体的综合仍有一定困难。

1.2CGF建模需求分析

通过分析工程机械CGF实体需求如下:

① 工程机械CGF实体能合理地选择作业方式:以推土机构造平底坑作业为例, 根据需要完成平底坑宽度、长度以及场地情况, 可采取各种不同的作业方式 (如穿梭法、分次进退法、纵横开挖法等) 。另外, 多个工程机械实体也可根据实际情况灵活地采取串联或并联等作业方式;

② 工程机械CGF实体自主地进行作业:如确定采用穿梭法进行作业后, 工程机械CGF实体能按照选定的作业方式确定相应的作业路线和动作进行作业;

③ 工程机械CGF实体之间能够进行通信:CGF实体能通过通信相互合作, 如2个推土机CGF实体进行并联作业时, 相互能协调推进速度、铲刀深度等;

④ 工程机械CGF实体能自主规划路线:在工程机械CGF实体行驶过程中能智能导航, 选择机械能够顺利通过的路线, 到达指定地点。

1.3智能体模型框架

工程机械多智能体 CGF系统由各类型工程机械智能体组成, 如推土机智能体、挖掘机智能体、装载机智能体和工程车智能体等, 这些智能体能自主进行作业并能相互通信进行合作。根据需求确定工程机械智能体框图如图1所示。

通信模块层与其他智能体进行信息交互并将信息转换为内部可识别的格式。通信模块接收到的信息分2类:第1类是作业任务描述;第2类是其他工程机械智能体发送的协作请求。对于第1类任务描述信息, 通信模块将其转换后转发给任务规划层;而第2类协作请求信息则直接发送给路径规划智能体。同时通信模块也能将任务规划模块向其他工程机械智能体发送的协作请求信息进行转换和发送。

专家经验库存储了专家针对作业任务如何作业方式选择的描述, 这些描述一般是模糊的规则, 如对于推土机开挖平底坑作业任务, 专家经验为“如果平底坑的宽度不大, 且成垂直形, 两端能便于机械调头时, 可采用穿梭作业法进行作业”。

任务规划模块根据作业任务描述信息, 结合专家经验和低分辨率传感器得到的作业场地信息进行推理, 得到合理的作业方式。然后将推理结果发送给路径规划模块。当推理结论中得到需要其他工程机械合作时, 任务规划模块生成协作请求并递交给通信模块。

作业路线规则库是确定的作业方式所对应的路线样式的描述。

路径规划层根据任务规划模块得到的作业方式描述, 在作业路线规则库中读取规则描述的作业路线。通过高分辨传感器获取四周地形信息, 进行机械行驶路线规划。

2智能体任务规划研究

工程机械智能体任务规划是指, 智能体根据作业任务和传感器得到的作业场地信息从专家知识中推理出合理的工程机械作业方式。以推土机构造平底坑作业为例, 根据专家知识可知:

“如果平底坑的宽度不大, 两端能便于机械调头时, 可采用穿梭作业法进行作业”;

“如果平底坑长度不大或两端不便于机械调头, 可采用分次进退的作业方法进行开挖”;

“若平底坑较宽, 长度又较大或带有侧坡时, 应采用纵横开挖法”。

从中可见, 这些知识以“条件—结论”方式呈现, 且条件部分有多个输入且具有模糊性。因此, 工程机械智能体作业方式决策为多输入单输出的模糊推理系统。本文采用自适应神经推理系统 (ANFIS) 进行建模。 仍以上文提到的推土机智能体构造平底坑任务为例进行介绍。

2.1系统输入输出

选取平底坑长度 (L) 、平底坑宽度系数 (Rw) 、平底坑截面边垂直系数 (Rv) 、场地通行系数 (Rf) 4个变量作为系统输入。系统输出为作业方式类型Ys。

Rw=WpWcWp为平底坑宽度、Wc为推土机铲刀宽度;

Rv=sinθ, θ为平底坑截面梯形腰与水平面夹角;

Rf=min (d1, d2, d3, d4) rr为推土机最小转弯半径, d1, d2, d3, d4为平底坑到作业区域四周距离。

输入的基本论域分别为:L∈[5, 50], Rw∈[1, 2], Rv∈[0.7, 1], Rf∈[0.5, 5]。定义输入的词集分别为:

T (L) ={NOTLONG, LONG, VERYLONG};

T (Rw) ={NOTWIDE, WIDER, FARWIDER};

T (Rv) ={FARVERT, NEARVERT, VERT};

T (Rf) ={SMALL, MEDIUM, LARGE}。

2.2隶属度函数

每个输入与3个模糊集合相联, 模糊集合的隶属度函数均采用高斯型隶属度函数:

μAim (xi) =exp (- (xi-cim) σim2)

条件参数集{cim, σim}的初始取值根据输入范围确定, 保证各输入的语言值能够充分重叠;输出成员函数有10个, 其结论参数初始值由专家经验确定。

2.3推理规则

ANFIS不能共享规则, 因此规则数必须与输出的成员函数数量相同。根据专家经验知识确定了10条推理规则。列举3条规则如下:

R1:If (Rw is NOTWIDE) And (Rv is VERT) And (Rf is LARGE) Then ys is Y1;

R2:If (L is NOTLONG) Or (Rf is SMALL) Then ys is Y2;

R10:If (Rw is WIDE) And (L is VERYLONG) Or (rv is FARVERT) Then ys is Y10。

2.4学习过程

因为网络结构已经确定, 只需调整条件参数{cim, σim}和结论参数{pi0, pi1, …, pin}即可完成对控制器的参数进行学习。本文采用混合算法进行ANFIS网络学习, 即条件参数采用反向传播算法, 而结论参数采用最小二乘法进行求解。每一次迭代时输入信号首先沿网络正向传递至第4层, 保持条件参数不变, 采用最小二乘估计算法调节结论参数;然后, 信号继续沿网络正向传递至输出层, 再将获得的误差信号沿网络反向传播, 然后调节条件参数。采用混合学习算法, 对于给定的条件参数, 可以得到结论参数的全局最优点, 这样不仅可以降低梯度法中搜索空间的维数, 还可以大大提高参数的收敛速度。

2.5实验验证

为了对推理系统进行验证, 根据某红旗推土机作业记录取得样本70组。取45组作为训练样本, 其余25组作为测试样本。利用MATLAB工具包进行仿真, 经30次迭代后收敛, 结果如图2所示, 误差为0.06%。从实验结果可知本文方法具有较好精度。

3结束语

设计了基于多智能体技术的CGF模型框架, 研究了基于ANFIS的工程机械智能体任务规划层作业方式推理, 实现了工程机械智能体根据作业任务和作业环境自主进行作业方式推理决策。实验结果表明, 本文提出的模型与算法的正确性和精度。

摘要:为了解决某分布式虚拟训练系统中计算机生成兵力建模问题, 对计算机生成兵力建模需求进行了全面分析。在此基础上, 研究了基于多智能体的CGF模型。设计了由任务规划层和路径规划层组成的混合型智能体。根据智能体任务规划特点, 提出了基于ANFIS的智能体任务务规划算法。通过仿真实验对智能体模型和算法的正确性进行验证, 结果表明提出的智能体模型满足了建模需求, 任务规划算法具有较好的精度。

关键词:智能体,计算机生成兵力,建模,任务规划

参考文献

[1]庞国峰.分布式虚拟战场环境中计算机生成兵力系统的研究[D].北京:北京航空航天大学, 2000:23-26.

[2]梁晓晖.计算机生成角色行为建模研究[D].北京:北京航空航天大学, 2002:52-53.

[3]刘秀罗.CGF建模相关技术及其在指挥控制建模中的应用研究[D].长沙:国防科学技术大学, 2001:31-32.

[4]尹全军.基于多智能体的计算机生成兵力建模与仿真[D].长沙:国防科学技术大学, 2005:27-28.

多智能体建模 第2篇

多智能体技术在交通控制中的机理研究

文章以多智能体技术为核心,结合信号控制系统的特殊要求,建立了基于多智能体技术的城市交通信号控制系统的框架,并着重探讨了智能体的.组成和内部运行机制.

作 者:张静静 严凌 高强飞 张健 ZHANG Jing-jing YAN Ling GAO Qiang-fei ZHANG Jian 作者单位:上海理工大学,管理学院,上海,95刊 名:交通与运输英文刊名:TRAFFIC & TRANSPORTATION年,卷(期):“”(z1)分类号:U491关键词:多智能体 框架 运行机制

多智能体建模 第3篇

关键词:多智能体系统 强化学习 协作学习 预测分析技术 追捕问题 黑板模型

中图分类号:TP18 文献标识码:A 文章编号:1674-098X(2011)03(c)-0253-02

1 引言

近年来,分布式人工智能研究者对多Agent协作完成任务的研究越来越多。这是因为随着计算机网络,分布式计算技术等不断发展和完善,所要研究的系统往往异常复杂庞大,并且呈现动态多变的分布式特性,要解决问题单凭单Agent所拥有的有限的资源和能力是无法完成的,或者完成任务的效益不是理想的,同时,成本也很高。因此,对多Agent间的协作学习方法的研究是十分必要的,也是非常重要的,更是多Agent系统发展的必然趋势。学习可以使多Agent能够在开放、复杂、动态的环境中提高自反应适应性,更是学习机制可能有效地实现多Agent间的协作。反之,为多Agent系统增加协作学习机制也能起到加速多Agent的学习进程。本文以追捕问题为背景,采用协作机制和独立强化学习技术来研究多Agent系统中的协作学习问题,结合预测分析技术和黑板模型使多Agent拥有了可预测的能力,和共享学习成果的平台,从而达到了利用协作来改善学习效果的目的。

2 强化学习

强化学习是一种无人监督的在线的机器学习方法,也称为再励学习或评价学习,使智能体能够在环境模型未知的情况下利用环境奖赏发现最优的行为序列。其原理是:如果学习者即Agent的某个动作策略导致环境正的奖赏,那么Agent以后产生这个动作策略的趋势就会加强;反之,Agent产生这个动作策略的趋势便会减弱。Agent算法是由Watkins于1989年提出的一种与环境无关的动态差分强化学习算法,其本质是MDP的一种变化形式。马尔可夫决策过程是一个四元组MDP=(S,A,P,R),其中:S是离散的状态空间;A:是离散的动作空间;P:S是表示环境状态转移概率函数;R:是状态-动作对的奖赏函数。

马尔可夫决策过程的思想是,智能体每步可在有限的动作集合中选取某一动作,环境接受该动作后状态发生转移,同时作出评价,Agent面临的主要任务是决定一个最优策略,使得最终总的折扣奖赏信号期望值最大。

3 改进的多Agent协作学习方法

3.1 算法思想

3.1.1 各Agent均采用独立强化学习算法进行学习

3.1.2 为了加快学习速度,提高学习效率。首先,各Agent在采取行为动作之前,预测分析其他Agent的可能动作和下一个时刻可能所处的状态。其次,多Agent通过黑板模型进行策略的共享。再次,利用融合算法对多个策略进行融合来改进策略,利用融合后的策略进行再次学习。

3.2 算法描述

多Agent系统中,各个Agent处于同一个环境中独立地执行Q-learning.

3.2.1 对于在t+1时刻将到达的状态的概率预测函数P的定义如下式:

(1)

任意时刻有:成立。

表示Agenti状态集中的第k个状态,st是时刻所有Agent的组合状态,是预测学习模型的学习率,它在学习过程中是逐渐衰减的。

3.2.2 具体实现多Agent协作学习算法

Step1 t←0,随机初始化每个智能体的Q(s,α);

Step2:对于每个智能体,执行标准的Q-learning算法:

首先,观察环境当前状态st;

其次,按如下公式Boltzmann机的方式选择一个动作αt并执行;

最后,观察环境的后继状态st+1并从环境中获得强化信号rt;(4)根据此公式对(s,α)状态-动作对相应的Q(st,αt)进行更新;

Step3:如果t能被事先指定的F整除,则所有的Agent交换策略并融合;

Step4:t←t+1;

Step5:如果后继状态满足结束条件,则结束;否则s←s'转Step2。在学习收敛之后,采用公式

4 仿真实验

以追捕问题對改进多Agent协作学习方法改进仿真实验,得出比传统多Agent强化学习算法的有效性和其自身的收敛性。宏观上把Agent分为猎人和猎物两类。实验结果要使多个猎人通过协作采取有效的策略追捕并最终捕获到猎物。采用有界栅格建模,在20×20追捕地图中,实现四个猎人追捕一个猎物。用N=(N1,N2,N3,N4)表示四个猎人的集合,M表示猎物,初始状态如图1所示。猎人的目标是在最少的步数内成功捕获猎物,即指在某一个时刻猎人们在猎物周围分别占据了四个邻近网格,如图2所示。其中,N1,N2,N3,N4之间是相互协作关系,称为协作团队,与猎物对抗。各猎人都执行独立强化学习,通过预测分析,感知、规划、移动,并与其他猎人进行通信协商。而猎物的逃避策略是为向其最近的猎人的反方向逃跑。在每个状态,各个Agent只能在水平和垂直方向移动一个网格的位置。Agent不能越边界方格,且任意两个Agent均不能同时占据同一个网格,若出现此现象,则二者都将原地不动。设Agent可视半径为r,能够看见区域内所有网格为S=(2r+1)×(2r+1)。各个Agent分配唯一的ID,r=4,且交换频率f=50Hz

(1)定义猎人的状态值为猎人当前状态,与其目标状态的相对距离的平方,即

(2)动作选择策略,先对各个Q(st,αt)用Boltzmann机进行非线性化,再采用轮盘赌算法进行抉择。对于动作αi被选择概率为

(4)

式中,T为退火温度值,T越大。随机性越强。

(3)奖赏函数:若猎人达到目标位置时,奖赏+300,靠近目标时,奖赏+100,位置未发生变化得到奖赏0;猎人与猎物的距离反而增加时,奖赏值为-1。在独立学习过程中,每个Agent都有一份Q值表,每个Agent互斥独立地修改各自的Q值表,经过一定的学习步数后,所有的Agent采用黑板模型与融合算法共享各自的Q值表。

5 实验结果及其分析

将本文提出的多Agent协作学习算法和独立强化学习算法来进行比较试验。捕获的平均成功概率和Q值的比较如图3所示。从实验结果很明显得出,协作学习与独立学习相比,能够更快地收敛于平稳值。同时,多Agent之间进行相互合作,如多Agent间通信机制,共享策略预测其他Agent的后继状态。

参考文献

[1] 张汝波,顾国昌,刘照德,王醒策.强化学习理论、算法及应用[J].控制理论与应用,2000,17(5):637~642.

[2] 高阳,陈世福,陆鑫.强化学习研究综述[J].自动化学报,2004,30(1):86~101.

[3]谭民,王硕,曹志强.多机器人系统[M].北京:清华大学出版社,2005.

[5] 张维明,姚莉.智能协作信息技术[M].北京:电子工业出版社,2002.

[6] Sutton RS.Learning to predict by the methods of temporal difference[J].Machine Learning.1988(3):9~44.

浅析多智能体建模的作用与优势 第4篇

1 传统建模与仿真方法的局限性

传统的建模与仿真方法由于其固有的局限性已经难以满足未来信息化条件下装甲兵作战建模与仿真的需要。传统的作战建模与仿真方法试图利用数学建模对军事活动进行描述, 比如基于兰彻斯特方程的解析模型, 基于蒙特卡罗方法的统计模型和指数法描述战斗力的经验模型等, 经过多年的发展, 这些模型用来描述机械化战争己经有了一定的经验, 并取得了很多的成果, 在研究战争规律和指导战争实践中发挥了重要的作用。但是, 传统的建模方法和作战模型是用来描述机械化战争的, 用来描述信息化战争中信息化作战体系对抗就难以适应, 就更谈不上较宽范围的军事建模。

传统的数学模拟和仿真技术对作战系统的动态性、主动性、适应性和随机性等复杂特性难以进行科学的描述, 也难以解决计算效率与模型可信性之间的矛盾。对于部队作战问题本身并不存在确定的数学模型, 或者虽然在一定程度上存在确定的数学模型, 但是用一般方法抽象不出可操作的数学模型, 不能用数学方法精确地描述出来, 因此, 需要借鉴复杂系统的一些研究方法, 采取自底向上的建模方法, 构建具有智能行为的作战个体或装备实体, 依据某主战兵种作战特点属性赋予一定的行为规则, 通过个体之间的交互来模拟从个体的微观适应到大规模作战的宏观涌现, 以动态、整体的方法研究信息化条件下的作战问题。

2 多智能体建模与仿真的作用

智能体和人在回路中的仿真实体共同构建成分布式虚拟作战环境。受训人员通过操作控制台、装备模拟器或实装控制人在回路中的仿真实体和计算机生成并控制的作战实体实现红蓝双方的对抗演练。多智能体作为分布式作战仿真训练系统的重要组成部分, 其主要作用有:

(1) 为受训人员提供作战对手或友邻支持, 提高虚拟战场环境的复杂度与真实性, 增强用户的沉浸感;

(2) 多智能体的行为由计算机软件实现, 只需军事专家对仿真对象的战术原则进行建模, 理论上可以实现任意敌方的行为仿真, 提高仿真的灵活性和针对性;

(3) 增加仿真实体的数量, 可为指挥决策人员提供一个进行战术、战法研究与分析的大规模虚拟环境;

(4) 可明显地降低训练的风险和费用, 节约系统的训练成本。多智能体作为分布式作战仿真系统的重要组成部分, 为作战仿真系统提供作战对象、友邻支持兵力等补充部分, 提高系统的灵活性和降低系统的训练成本。多智能体的真实性直接影响到作战仿真的科学性、可靠性、客观性和效果, 是作战仿真研究的一个重点和热点的研究领域。

3 多智能体建模与仿真的特性

多智能体通过对一定规模的作战单位 (如装甲旅、坦克营、连、排) 的作战行为进行建模, 使其在虚拟的作战环境中能自主地模拟实现与真实的作战单元相同的作战任务, 通常应用于合同战术或更高层次的作战仿真系统中。而单智能体所描述的实体是单一的武器平台 (如坦克单车, 单架飞机或单兵) , 侧重于在逼真的战场环境中模拟作战实体的具体活动、作战动作、以及实体间 (及与环境间) 交互。多智能体建模技术在装甲兵作战仿真中应用主要有以下特性:

(1) 逼真性。多智能体能够表现出与实际作战实体相一致的特性, 从而实现仿真逼真度的需求。要求智能体既要反映武器装备的物理特性, 又能反映其角色的战术行为和作战编成特征。与战役或更高层次作战模拟不同, 分队战术主要通过具体的战术动作体现, 训练侧重于在逼真的战场环境中模拟作战实体的具体活动、作战行为、以及实体间 (及与环境间) 交互, 对模拟的逼真度和沉浸感有更高的要求。

(2) 实时性。分队战术训练强调整个作战过程的具体体验, 模拟时钟通常与实际时钟相一致, 训练通过受训人员对动态战场环境做出实时判断, 根据战术原则定下决心并采取相应战术动作, 影响战场态势达成作战任务实现。因此, 智能体必须具有良好的实时性。

(3) 行为的对抗性。智能体具有团体组织内的协作行为, 同时敌我双方的行为又具有对抗性。这种对抗性贯穿于仿真系统中作战双方的整个作战行动过程。

(4) 团体组织性。各智能体实体通常成建制遂行作战任务, 与特定想定中的编成部队相对应, 具有相应的组织结构和组织特征。同时, 它们的行为具有符合军事原则和整体目标的协调与合作特征。

(5) 行为的智能性和自主性。智能体涉及指挥、控制和通信等行为过程, 这些行为具有拟人的智能性特征。智能体在仿真系统中的作用就是在一定程度上代替人的作用, 因而需要具有一定程度的自主行为能力, 这也是判断一个实体是否是智能体的关键特征。

(6) 综合性。多智能体是对实际作战兵力的模拟, 而实际作战兵力是人与武器的结合, 因此, 智能体模型既包括武器装备模型 (动力、运动、火力、侦察等) , 又包括智力行为模型 (角色、战术思想、决策规划、情感等) 。

总之, 应用多智能体建模技术, 可以更科学、完整的描述作战这一复杂巨系统, 并为作战模拟训练、作战实验等提供技术支撑。

参考文献

[1]马亚平.作战模拟系统[M].北京:国防大学出版社, 2005 (04) .

[2]郭齐胜, 董志明, 单家元.系统仿真[M].北京:国防工业出版社, 2006 (10) .

[3]胡晓峰等.美军训练模拟[M].北京:国防大学出版社, 2001.

多智能体建模 第5篇

关键词:风洞试验,风洞试验平台,SolidWorks建模,ADAMS建模,柔性体建模

1 引言

风洞试验就是依据运动的相对性原理,将飞行器的模型或机构固定在人工环境中,人为制造气流流过,以此模拟空中各种复杂的飞行状态,获取试验数据。风洞是进行空气动力学研究与飞行器研制最基本的试验设备,每一种新型飞行器的研制都需要在风洞中进行大量的试验。

飞行器要进行风洞试验离不开风洞模型支撑,风洞模型支撑主要有硬式支撑[1]、磁悬浮支撑、绳牵引并联机构支撑[2]等。磁悬浮支撑系统复杂,成本高,绳牵引并联支撑系统的稳定性不高,其试验研究处于起步阶段,而经过长期的理论发展与实践验证,硬式支撑系统的理论体系已趋近于成熟,因而在风洞试验中得到广泛的应用。

通常在进行机构动力学仿真时,所建立的模型构件为刚性构件,在作运动分析时不会发生弹性变形。而实际上,在高速、重载的工作条件下,轻质、细长杆件在高速运动时表现出了刚性机构所没有的柔性性能,杆件的弹性变形会导致系统的运动误差和弹性振动[3]。因此考虑构件的柔性以提高仿真分析精度成为风洞试验平台研究的一项重要内容。

目前有关柔性并联机构的研究刚刚起步[4,5,6,7,8],相关的理论体系还没有建立,国内对于风洞试验平台的研究还处于探索之中,本文通过对一种基于3-RPR机构混合型风洞试验平台进行刚柔混合多体建模,为进行风洞试验平台柔性体运动学与动力学仿真分析提供基础研究,并为其他风洞试验平台的研究提供参考与借鉴。

2 风洞试验平台结构特点

本文研究的机构是一种基于3-RPR机构混合型风洞试验平台。它由3-RPR平面并联机构、弯形结构部件等组成。基于3-RPR机构混合型试验平台为5自由度混联机构:3-RPR平面并联机构的自由度是3,该平面并联机构具有两个移动和一个转动的运动特点;连接3-RPR平面并联机构的动平台及试验模型的弯形结构部件,自由度为2,该机构具有垂直于动平台的转动及控制试验模型转动的运动特点。

3-RPR平面并联机构实现模型的俯仰姿态变化;弯形结构部件与3-RPR平面并联机构的动平台相连的部件实现试验模型的偏航运动;弯形结构部件直接与试验模型相连接部分可实现试验模型的滚转运动,因此基于3-RPR机构混合型试验平台可在风洞试验中作为硬式支撑,实现对试验模型滚转角、俯仰角、偏航角的控制。

风洞试验平台机构简图如图2所示。

1,3,6.转动副2.弯形结构部件4.驱动杆5.移动副7.下平台8.上平台

3 风洞试验平台三维建模

3.1 风洞试验平台SolidWorks建模

目前流行的CAD建模软件很多,如Pro/E、UG、Catia、SolidWorks等。鉴于SolidWorks软件操作方便,支持参数化设计,提供与ADAMS软件接口等优点,选择了SolidWorks建立风洞试验平台的三维模型。

在进行风洞试验平台三维建模时,需要分别建立3-RPR平面并联机构上、下平台、驱动杆及其控制装置、弯形结构部件、试验模型等实体模型,此外,要处理好这些部件装配时的配合问题。

3.1.1 3-RPR平面并联机构的建立

建立3-RPR平面并联机构,要考虑上平台与驱动杆的转动配合、驱动杆与其控制装置的移动配合、下平台上方与驱动杆控制装置的转动配合、驱动杆及其控制装置与上、下平台可能出现的干涉等问题。

3.1.2 弯形结构部件的建立

弯形结构部件连接试验模型与3-RPR平面并联机构上平台,所要注意的问题也就是弯形结构部件的结构及尺寸要求,以及与上平台及试验模型的转动配合要求。

3.1.3 风洞试验平台的装配

风洞试验平台依据三维建模时的要求进行装配。考虑到在接下来的ADAMS中建模,铰链接触处只需添加转动副即可,铰链添加与否对试验平台的仿真没有影响,因此驱动杆及其控制装置与3-RPR平面并联机构的上、下平台接触处,可以不添加铰链。基于3-RPR机构混合型风洞试验平台的SolidWorks装配体如图3所示。

3.2 风洞试验平台ADAMS建模

ADAMS具有建模功能,可以建立简单的机械结构,但是对于复杂的装配体,如文中所示的风洞试验平台,直接在ADAMS中建模比较困难,因此选择在SolidWorks中建立风洞试验平台模型,然后把风洞试验平台模型以Parasolid文件形式进行保存,导入到ADAMS中进行建模。具体的建模过程如下所示:

3.2.1 编辑构件

对于SolidWorks软件中导入的风洞试验平台,需要给风洞试验平台的构件赋予一定的材料属性,否则计算过程中就会出现错误信息,此外,为便于对风洞试验平台的构件进行操作,需修改零件名称。

3.2.2 添加运动副

3-RPR机构的下平台与大地之间添加固定副;驱动杆及其控制装置接触处添加移动副;驱动杆与3-RPR机构的上平台及驱动杆控制装置与3-RPR机构的下平台的配合处要添加转动副;弯形结构部件与试验模型及3-RPR机构的上平台接触处添加转动副。

3.2.3 添加驱动

驱动杆及其控制装置的移动副上添加滑移驱动,通过驱动杆控制装置改变驱动杆杆长的大小来实现试验模型俯仰角的变化;弯形结构部件与试验模型及3-RPR机构的上平台的转动副上添加旋转驱动,控制试验模型的滚转运动与偏航运动。

3.2.4 验证模型

利用ADAMS/View的模型验证功能,检查所添加的约束关系与自由度是否满足既定的要求,通过对仿真模型进行相应的修改,调整相关的结构及零件间的约束关系,进行反复的仿真分析及数据处理,最终得到合适的ADAMS模型。

3.3 风洞试验平台柔性体建模

3.3.1 ADAMS柔性体建模方法

在ADAMS中有三种建立柔性体的方法[9]:

(1)离散柔性连接件,直接利用刚性件之间的柔性梁连接,将一个构件分成许多个小块,在各个小块之间建立柔性连接,该方法仅限于简单构件。

(2)利用有限元分析软件(如ANSYS、Nastran、I-Deas、Abaqus等)将构件离散成细小的网格,再进行模态计算,然后将计算的模态保存为模态中性文件MNF,直接读取到ADAMS中建立柔性体。

(3)使用ADAMS中的自动柔化功能ADAMS/AutoFlex创建柔性体的MNF文件,然后用生成的柔性体替代原来的刚性体。ADAMS中创建的柔性体几何外形比较简单,对于复杂的柔性体还需要在有限元软件中生成柔性体。

3.3.2 风洞试验平台柔性体的建立

刚柔混合系统的创建原则是对于细长刚度小的生成柔性体部件,而对于刚性较大的部件则采用刚性体模型[10]。因此对于本文分析的风洞试验平台,对驱动杆进行柔性化处理,其余部件则为刚性体。驱动杆进行柔性化处理,既可以在有限元分析软件进行,也可以直接在ADAMS进行,本文借助ADAMS中的自动柔化功能对驱动杆进行柔性化处理,生成模态中性文件,重新导入ADAMS中替代原有的刚性驱动杆。

利用ADAMS中的自动柔化功能将驱动杆的几何外形来生成柔性体是将柔性体的外形所占用的空间进行有限元离散化,可以直接由驱动杆的几何外形来生成柔性体的构件可以是直接在ADAMS中创建的构件,也可以是导入的Parasolid格式的驱动杆三维模型。对于外部导入的Parasolid格式的三维模型进行离散化,ADAMS的要求比较高,往往会出现柔性化失败的情况。鉴于上述情况以及驱动杆外形简单的特点,直接在ADAMS中创建驱动杆,然后进行离散化处理生成驱动杆的模态中性文件。具体操作过程如下所示:

(1)在ADAMS中创建驱动杆的要求与Solid Works三维建模要求一致。此外,与上平台转动配合及与驱动杆控制装置的移动配合处要添加关联点坐标(Marker)点。

(2)在ADAMS/AutoFlex中,选择Geometry表示利用现有的驱动杆的几何外形来生成柔性,并在输入框选择需要离散化的驱动杆,在Mesh/Properties中,选择体单元(Solid Tria)类型,确定网格划分的单元尺寸与相关材料属性。单元尺寸选择要合理,太大可能会导致离散化失败,过小则影响计算机的运行速度,且对后面的仿真精度影响不大。

(3)在Attachments页中需要输入柔性体外接点(关联点坐标点),驱动杆与上平台及驱动杆控制装置发生作用的点,即运动副的关联点。通过该外接点与发生作用的位置建立许多一维单元,如刚性单元或均布单元等,这些都是有限元分析中常用的内容。

(4)完成上述步骤便可进行驱动杆离散化处理,并会在工作目录生成相应的MNF文件,通过菜单【Rigid to Flex】,用新生成的驱动杆柔性体MNF文件替换原来的刚性体,运用柔性体位置调节选项(Flex Body Positioning)将调节柔性体与刚性体的位置,正确使用柔性体与刚性体的质心校准功能,可以实现柔性体与刚性体的位置重合。

将驱动杆的柔性体模型重新导入ADAMS中替代原来的刚性体,然后进行模型检查,若没有错误信息便可以进行柔性体运动学与动力学仿真分析。最终的风洞试验平台柔性体模型如图6所示。

4 ADAMS仿真分析

通过改变驱动杆的杆长可实现对风洞试验平台的试验模型俯仰角的控制,下面分别以风洞试验平台的刚体模型及刚柔混合模型为例进行仿真,获取上述两种情况下试验模型俯仰角的变化曲线(实线-刚性体仿真曲线,虚线-刚柔混合仿真曲线)。仿真比较结果如图7。

由图7可以看出在仿真过程中,对于同一时间,刚柔混合条件下的试验模型俯仰角要大于刚性条件下的试验模型的俯仰角,并且随着时间增加,俯仰角的差距在不断增大。

由图8可以明显看出起始阶段,刚柔混合条件下的试验模型的角加速度有较大的波动,而且其角加速度要比刚性条件下的试验模型的角加速度要大得多,风洞试验平台会出现很大的振动。因此在对风洞试验平台仿真时,必须考虑驱动杆的弹性变形对风洞试验平台产生的影响。

5 结语

本文以一种基于3-RPR平面机构混合型风洞试验平台为研究对象,详细描述如何建立其柔性体模型。通过建立合理的刚柔多体动力学模型来实现更接近于真实情况的动力学仿真,这对于进行风洞试验平台的动力学性能的分析、运动误差的减小、弹性振动的控制、优化设计等后续研究工作有着重要的意义。

参考文献

[1]REIN M,et al.Ground-Based Simulation of ComplexManeuvers of a Delta-Wing Aircraft[J].AIAA Journalof Aircraft,2008,45(1):286-291.

[2]BERGMANN A.Modern wind tunnel techniques forunsteady testing[J].NNFM,2009,102:59-77.

[3]杜兆才,余跃庆,苏丽颖.动平台惯性参数对柔性并联机构动力学特性的影响及优化设计[J].光学精密工程,2006,14(6):1009-1016.

[4]KANG B,MILLS J K.Dynamic modeling of structurally-flexible planar parallel manipulator[J].Robotica.,2002,20:329-339.

[5]GIOVAGNONI M.Dynamics of flexible closed-chain manipulator[C]//ASME Des.Tech.Conf.,1992,69(2):483-490.

[6]QUENNOUELLE C,GOSSELIN C.A Quasi-Static Model forPlanar Compliant Parallel Mechanisms[J].Journal ofMechanisms and Robotics,2009(1):121-129.

[7]ZHANG X P,et al.Investigation of axial forces on dynamicproperties of a flexible 3-PRR planar parallel manipulatormoving with high speed[J].Robotica,2010,28:607-619.

[8]刘善增,朱真才,王洪欣,等.柔性并联机器人的研究进展[J].组合机床与自动化加工技术,2010(5):1-7,12.

[9]李增刚.ADAMS入门详解与实例[M].北京:国防工业出版社,2008.

多智能体建模 第6篇

传统的决策支持系统(Decision Support System-DSS)采用各种定量模型,综合利用大量数据,旨在对半结构化和非结构化决策问题提供支持。由于DSS采用静态数学模型,并且是在决策者的主导下采用模型求解,DSS对决策中普遍存在的定性问题、模糊问题和复杂性问题缺乏相应的支持手段[1]。随着人工智能理论(Artificial Intelligence-AI)的逐渐成熟,得到了研究人员的广泛关注,并将其引入DSS研究领域,产生了一个新的研究分支——智能决策支持系统(Intelligence Decision Support System-IDSS),AI的深入发展为IDSS的研究注入了新的活力,克服了传统DSS的缺陷,称为DSS的重要研究方向[2]。智能体(Agent)理论的研究是近年来计算机科学领域的一个重要方向。从80年代开始,Agent研究与其他领域相互借鉴和融合,在许多应用领域得到了更为广泛的应用。特别是多Agent的理论和技术,为分布式开放式系统的实现提供了一个新途径,被誉为“软件开发的又一重大突破”[3]。近年来针对各种应用领域出现了各种各样的Agent,在复杂系统的开发和实现中起到了越来越重要的作用。多Agent技术和网络技术的发展为建立IDSS提供了新的途径。研究基于多Agent技术的新一代IDSS具有重要意义。本文将多Agent技术引入到IDSS的设计中来,力图通过多个Agent的协同工作,实现IDSS的综合化和集成化,为解决复杂的决策问题,提供动态信息,从而提高决策水平。

2 基于多智能体技术的智能决策支持系统

2.1 智能体(Agent)与多智能体(Multi-Agent)

目前学术界对于Agent还没有一个明确的定义,但一般认为Agent是一个运行于动态环境的、接受另一个实体的委托并为之提供服务的、具有较高自治能力的实体。Agent也可以理解为一种模拟人类智能行为并提供相应服务的计算机程序,它能够持续的、自主的进行操作。Agent自身应该具有知识、目标和能力,能够通过感知器对外界环境中的条件作出反应,并运用学习和推理的功能来对外界环境作出解释,产生推理并作出决定。一般认为,Agent具有自主性、协同性、响应性、预动性及智能性的特点。

多智能体(Multi-Agent)系统是指由多个Agent组成的一个松散耦合的网络,各个Agent成员之间相互协同、相互服务共同完成一个复杂任务。各Agent之间的活动是自治、独立的,它们通过竞争、协商、协作等手段来完成系统设定的目标,并在一定程度上代替人完成部分工作,扮演人的角色[4]。多智能体系统提供了一种解决复杂问题的方法,即将复杂问题划分为若干个子问题,构造若干具有相应功能的Agent,由这些Agent分工处理相应的子问题。多智能体系统为决策支持系统提供了一种新的设计思路。

2.2 IDSS体系结构

1981年Bonczek等人提出将决策支持系统与专家系统(Expert System,简称ES)相结合,分别发挥决策支持系统数值分析与专家系统符号处理的特长[5],将定量分析与定性分析相结合,形成了最初的IDSS,从而能有效地解决半结构化和非结构化的问题。IDSS利用人工智能和专家系统技术在定性分析和不确定推理上的优势,充分利用人类在问题求解中的经验和知识,克服了传统决策支持系统的缺陷。把专家系统技术应用到决策支持系统当中,可以克服专家系统和决策支持系统各自的局限性,更好的支持管理决策[6]。

近年来,几乎所有关于决策支持系统的研究都是围绕人工智能技术的应用而展开的[7]。IDSS的研究重点也逐渐转移到各部件的综合集成上。IDSS研究的理论与方法逐渐成熟,但如何使系统各部件统一起来,仍然是IDSS研究热点之一。黄梯云教授认为,智能决策支持系统应该具有以下5个特点[8]:1具有友好的人机接口;2能对知识进行表示与处理;3具有智能的模型管理功能;4应具有学习能力;5能综合运用人工智能中的各种技术,对整个IDSS进行统一协调、管理和控制。

早期的IDSS主要由决策支持系统和知识库构成,后来为了增强知识处理能力,又发展出了由问题处理与人机交互系统、模型库管理系统、数据库管理系统以及知识库系统组成的IDSS,其基本结构如图1所示[9]。该系统模型只是简单的反映了IDSS的必要组成部分,对于上述IDSS应该具备的5个特点并没有很好的予以解释并实现。另外,该模型的智能部件只强调了知识库或知识系统的作用,忽略了数据中也隐含着决策知识或规则,没有充分利用数据信息来帮助决策。同时,模型库与知识库相分离,在分析过程中没有充分地将定性分析与定量分析结合起来[19]。本文将引入多Agent技术,对智能决策支持系统的各部件进行统一协调、管理和控制。

2.3 基于多智能体技术的智能决策支持系统框架结构

国内外学者对基于多智能体技术的智能决策支持系统(Intelligent Decision Support System Based on Multi-Agent-IDSSBMA)进行了大量的研究。澳大利亚昆士兰大学Shijia Gao等学者研究了IDSSBMA对家庭财务规划问题提供支持[10],以及反洗钱领域中IDSSBMA的模型建立[11]。国内学者至今仍没有针对专门领域对IDSSBMA进行研究。结合行业背景对IDSSBMA进行研究将是该领域未来的研究方向。

针对不同的任务,人们可以构造不同种类的Agent来满足需要。浙江大学刘金琨等人提出了由界面Agent、信息Agent和移动Agent构成的智能决策支持系统,并提出进一步的研究方向是解决Internet环境下的信息资源异构和动态变化的问题[12];大连理工大学毛海军等人提出了利用界面Agent、信息Agent和协作Agent来实现智能决策支持系统的思路,为解决多Agent系统中Agent之间的协作问题提供了一种新的思路[13]。在上述学者研究的基础上,本文构造7种Agent,将IDSSBMA模型进行拓展,力图更好的解决智能决策支持系统的综合化和集成化。

2.3.1 面向智能决策支持系统Agent设计

(1)界面Agent。

界面Agent是由人和计算机通过人机界面组成的一个有机的整体[14]。它的主要功能是代替传统智能决策支持系统中的问题与人机交互系统来与用户进行交互。它采用的是一种间接管理的风格。在基于该Agent的系统中,用户只需给出大体的指导即可以控制系统的运行,而无需显式地告诉计算机具体的行为。由于Agent本身具有面向目标和协作性的特点,因此它可以针对不同用户进行不同的处理。界面Agent可以针对不同用户进行个性化处理,从而能够适应于特定用户的特定行为。当它能够确定用户在某个特定的情况下将如何做出反应时,它就开始替代或者帮助用户完成相应的任务。

通过界面Agent可以实现人机智能的结合。一方面,通过多Agent系统对其进行集成可提高人机系统的综合智能水平;另一方面,通过对界面Agent技术的开发可促进人的智能随之发展,达到人机系统高度智能化、协调化。利用界面Agent技术可以为人和机器间的双向通信提供友好交互、自然对话的条件,构成人机协调系统并可进行各种智能管理活动,实现智能预测、智能规划、智能决策、智能调度、智能监控和智能评价等功能。

(2)协作Agent。

协作Agent是定义Agent之间协作关系的Agent,包括各种协作协议、策略、对协作的处理和评估。协作协议包括对协作过程中Agent之间的通信规则作出的定义、表示、处理以及解释[15]。协作策略指Agent之间的决策和控制过程,旨在寻求一种让协作双方都能接受的策略。协作处理指在协作过程中Agent所做出的具体行为。协作评估是对接收到的信息和采取的协作方式进行评估。协作Agent可以解决Agent之间的协作问题,单独完成协作任务,使其他Agent的构建变得简单,协作变得更灵活、更容易操作。

(3)信息Agent。

信息Agent对信息进行各种检索和处理,可以实现对信息的管理、控制和分类[16]。信息Agent根据需要从信息源检索出决策者需要的信息,以供问题求解的需要。这类信息Agent可用在网络系统中,实现对信息的实时检索,提高检索效率。另一类信息Agent不只是对信息进行检索,还要对检索到的信息进行某种程度的加工,使信息能够满足具体的需求,即进行信息处理,并在此基础上进行问题的求解,兼有解决问题的能力。在需要时可使用一种信息Agent,也可同时使用两种信息Agent。前一种信息Agent结构简单,但功能太少;后一种相对前者结构较复杂,但功能强大。在使用时,后者常常用在需要在本地进行问题求解的系统中,可以对分布式信息进行管理、控制和分类。

(4)管理Agent。

管理Agent的职能是对问题的决策、查询及对其它Agent进行控制和监督,对不同项目组之间的成员进行协调。Multi-Agent系统中需要解决的难点问题是任务分解、任务分配和Agent之间的磋商。管理Agent根据用户提出的要求制订任务规划和调度、分解、协调模型Agent等,并与其它子系统中的管理Agent进行磋商[17]。

(5)决策Agent。

决策Agent是完成决策任务的主体,各个决策Agent将根据自己的能力决定是否接受决策任务或确定完成决策任务的哪个部分。每个决策单元对应组织中的一个决策者或者决策部门,负责整个组织复杂决策的一部分。当一个决策单元接收到管理Agent分配的任务时,决策Agent利用本地本体知识库的知识与其它决策单元进行必要的协作求解[18]。

(6)模型Agent。

模型Agent在管理Agent的调度下和信息Agent的支持下提供问题的具体求解方法。模型Agent是将多智能体引入DSS模型的建立,用Agent来描述模型。一个模型Agent可以描述一个简单模型,复杂模型由多个模型Agent通过磋商与合作的方式形成,模型库系统即可以是一个多智能体系统。利用Agent的特性,可使基于Multi-Agent建造的DSS模型库系统较好地实现模型与数据、模型与方法的集成、共享与重用,并可大大减少模型库管理系统的工作,模型的管理只是更高层的协调与监控。

由于模型库系统中的模型均是可以完成某一种任务的模型,使用时一般不需要改变其结构与功能,因此采用多智能体设计的模型库系统较为简单,即将问题划分到子问题,由单个Agent尽可能完全地负责某个子问题。使用时Agent间可以有共同目标,以共同的合作方式进行协商与重组,这样可以减少通讯量,降低协商的难度。同时,还可以将每个Agent限制在其问题领域中,Agent之间的领域不重叠,可以避免冗余推理[17]。

(7)知识Agent。

为了实现知识管理在智能决策支持系统中的核心位置,本系统增加了知识Agent来协助系统合理有效地利用知识库中形式多样的知识。知识Agent主要进行知识的选择与推理,可与其他Agent或专家通信,获取选择知识的信息。

2.3.2 基于多智能体技术的智能决策支持系统建立。

基于上述Agent和IDSS的特点,本文提出了一种新的IDSSBMA模型,该模型的结构如图2所示。

该系统模型主要分为四个层次:任务理解层、任务分配层、任务求解层和信息数据层。

第一阶段为任务理解层,这一阶段系统通过界面Agent与用户交互,充分理解需要求解的问题,通过界面Agent将理解的问题转换成系统语言指令,为解决问题打下基础。

第二阶段为任务分配层,通过管理Agent掌握系统内所有Agent的情况,将对需要求解问题的理解传递给信息Agent;再将决策任务分配给决策Agent,决策Agent决定是否接受决策任务或确定接受决策任务的哪个部分。

第三阶段为任务求解层,根据任务求解提取所需要的数据信息,或从模型库调用所需模型,或从知识库中查找所需知识进行推理。其中,当需要多个信息Agent共同协作时,各信息Agent通过协作Agent进行相互通信,协调工作。模型Agent和知识Agent共同作用,分析信息Agent检索来的信息。决策Agent进行量化决策处理,得出结论。

第四阶段为信息数据层,将求解过程中所得到的信息储存起来,以备今后使用。

在实际应用中,可以将上述七种智能体充分结合,构建IDSSBMA来完成决策支持任务。基于IDSSBMA,多个用户可以通过各Agent部件实现人机协作,从而实现决策的智能化、集成化和综合化。

3 结论

多智能体建模 第7篇

进化算法是模拟生物进化过程与机制的自适应人工智能技术,能够解决许多复杂的问题,例如数值优化、组合优化等。为了提高进化算法的优化性能,近些年人们提出了许多新方法,如正交遗传算法[1]、随机遗传算法[2]、M-精英协同进化算法[3]、量子行为粒子群算法[4]等。正交遗传算法应用量化技术及正交设计来产生一组均匀分散在可行解空间中的点做为初始种群,以便能够更快地找到有价值的搜索区域;此外该算法还利用上述技术来构造交叉算子以产生更有代表性的后代。以上两点有效地提高了该算法的优化性能,对于11个30维及4个100维的测试函数取得了很好的结果。随机遗传算法应用一种随机编码策略,利用随机方法将搜索空间动态地划分为多个区域,并对搜索空间进行逐区域的搜索。在每个区域中通过随机采样来产生多个子代个体,并选择最好的子代个体来表示该区域。随机遗传算法对于20个30维及2个100维的测试函数取得了较好的优化结果。M-精英协同进化算法将整个种群划分为精英种群和普通种群,并通过组建团队的过程使精英个体之间进行协作操作,精英个体对普通个体进行引导操作,从而促使整个种群快速进化,对于13个30维及2个100维的测试函数取得了很好的优化效果。

智能体(Agent)技术是人工智能领域中最新最重要的研究方向之一[5,6]。将智能体技术与进化算法相结合用来解决数值优化问题是近年来很多人都在研究的一个方向[7,8,9]。Weica Zhong等人基于智能体对环境的感知与反作用的能力提出了多智能体遗传算法(Multiagent Genetic Algorithm,MAGA)[9],该算法与传统算法的主要区别在于将种群中的每个个体都看作是能够感知环境并反作用于环境的智能体。MAGA以网格状的多智能体系统为模型,采用邻域竞争算子、邻域正交交叉算子、变异算子和自学习算子,对于高达1000维的函数优化问题取得了很好的效果。

MAGA中的操作主要是智能体与其邻域中的其它智能体进行的竞争(邻域竞争算子)与合作(邻域正交交叉算子),再加上智能体利用自身知识的行为(变异算子、自学习算子)。其实MAGA的自学习算子中也存在邻域竞争的操作,因此较多邻域间的操作是MAGA的特点,但过多邻域间的操作也可能会减缓算法收敛的速度。本文提出了一种新的基于智能体的进化算法,简单多智能体进化算法(Simple Multi-agent Evolutionary Algorithm,SMAEA),该算法在各世代中均从单个智能体出发,利用自翻转算子及自学习过程来寻找更好的智能体,从而优化目标函数。其中自学习过程使用了局部搜索算子、交叉翻转算子、正交交叉算子和变异算子。局部搜索算子从单个智能体生成一个环状多智能体系统,这个多智能体系统的进化则通过执行交叉翻转算子、正交交叉算子和变异算子来实现。本文提出的SMAEA方法沿用了智能体的相关概念,由于采用智能体作为进化个体而有别于传统的进化算法。此外与目前已有的多智能体进化算法相比,SMAEA的进化模型更加简单,能够有效降低评价次数、降低算法的复杂性。仿真实验表明SMAEA具有数值优化性能好、求解高维函数能力强等特点。

1 SMAEA算法

用于函数优化的智能体定义如下:

定义1智能体a表示待优化函数的一个候选解,其能量等于目标函数值的相反数,即:a∈S,Energy(a)=-f(a)。智能体的目标是尽量增大其能量。

SMAEA算法的初始智能体记为a0。设进化的世代数为t(t≥0),则初始智能体可以表示为at,t=0。SMAEA算法的步骤如下:

第一步:对at执行自翻转算子,产生一个新的智能体et,比较这两个智能体,保留能量较大的一个智能体,记为at+1/2。

第二步:at+1/2进行自学习,得到智能体at+1。

第三步:判断终止条件是否满足,如果满足输出at+1并退出,否则令t←t+1并转到第一步。

SMAEA算法的流程如图1所示。

1.1 自翻转算子

进行自翻转的智能体可以表示为at=(a1t,a2t,…,ant)。首先根据式(1)将at映射到区间[0,1]上:

然后根据式(2)产生一个临时智能体(e′1,e′2,…,e′n):

新智能体et产生后,通过式(4)和原来的智能体at比较,保留能量较大的智能体,记为at+1/2。

自翻转算子通过对智能体进行翻转操作,使得某些维上较好的值可以快速扩散到其他维上,从而达到加速算法寻优的目的。

1.2 自学习过程

自学习是智能体的一个特性,SMAEA中的自学习通过多智能体系统的进化来实现。多智能体系统常见的一种结构是网格状[9]。在文献[9]中每个智能体固定在网中的一个格点上并有上下左右4个邻域,智能体不能移动,只能和4个邻域中的智能体发生相互作用。

SMAEA自学习过程中采用了环状多智能体系统,环内的每个智能体只能和它的2个邻域中的智能体发生相互作用。它的结构如图2所示,图2中每个圆圈代表一个智能体,它比网格状多智能体系统在结构上要简单,降低了算法的复杂性。

第一步:对at+1/2执行局部搜索算子,产生一个环状多智能体系统{b1t,r,b2t,r,…,bMt,r},r=0,其中r表示该系统进化的世代数,M表示该系统的规模,记GS为该系统进化的最大世代数。

第二步:对{b1t,r,b2t,r,…,bMt,r}中的每个智能体执行交叉翻转算子,然后依概率PO执行正交交叉算子,再依概率Pm执行变异算子,得到{b1t,r+1,b2t,r+1,…,bMt,r+1}。

第三步:记中能量最大的智能体,如果r+1等于GS则令at+1←btbest并退出自学习过程,否则令r←r+1并转到第二步。

自学习过程的流程如图3所示。

局部搜索算子产生M个智能体的方法如式(5)所示。

令pk=akt+1/2U(1-RS,1+RS),k=1,…,n,其中RS是局部搜索半径,用来控制搜索范围的大小,U(1-RS,1+RS)表示1-RS到1+RS之间均匀分布的随机数,则bit,0,i=2,…,M由式(6)产生。局部搜索半径RS是不小于1的正数,做此限制是为了避免搜索不到绝对值很小的实数。

环状多智能体系统采用邻域间的合作机制来进化,交叉翻转算子就是邻域间合作的一种方法。设b=(b1,b2,…,bn)是环状多智能体中任意一个智能体,z=(z1,z2,…,zn)是b的邻域中能量最大的智能体,对b执行交叉翻转算子的步骤如下:

第一步:如果Energy(b)>Energy(z),则退出算子,否则继续。

第二步:智能体b和z通过交叉翻转产生两个新的智能体u和v,取u和v中能量较大的一个,不失一般性这里假设为u。如果Energy(u)≥Energy(b),则在环状多智能体中用u替换b。

u和v产生的过程类似于自翻转算子,首先把b和z通过式(7)和式(8)映射到区间[0,1]上:

然后根据式(9)和式(10)产生两个临时中间智能体(u′1,u′2,…,u′n)和(v′1,v′2,…,v′n):

其中1≤i<n,1<j≤n,i<j。最后根据式(11)和式(12)映射回区间[xk,x軃k],得到智能体u和v:

正交交叉算子是文献[1]提出的一种新算子,它利用正交设计来产生新个体。设b=(b1,b2,…,bn)是环状多智能体中任意一个智能体,z=(z1,z2,…,zn)是b的邻域中能量最大的智能体,则正交交叉算子将作用在b和z上,并且采用的正交矩阵为L9(34)。有关正交交叉算子的详细介绍可参见文献[1]中的相关内容。

设b=(b1,b2,…,bn)是环状多智能体中任意一个智能体,经过变异算子后新的智能体c=(c1,c2,…,cn)由式(13)产生,其中U(0,1)和β都是0和1之间均匀分布的随机数。

2 实验仿真

本文用10个标准测试函数(f1~f10)来测试SMAEA的性能。这些函数和文献[9]中的函数完全相同,它们已被广泛地用于测试进化算法的性能。其中f1~f6是多峰函数,其局部极值的个数随着函数维数的增高而增多,f7~f10是单峰函数,测试函数的详细内容请参考文献[9]。本文所有实验的运行环境如下:P4 CPU 3.2GHz,1GB内存,Windows XP Professional操作系统,Visual C++2005开发工具。

在SMAEA中RS是局部搜索算子的搜索半径,是不小于1的一个正数。M是自学习过程中产生的环状多智能体的规模,一般应不小于2。GS是环状多智能体进化的最大世代数,PO为执行正交交叉算子的概率,Pm为执行变异算子的概率。在以下各节实验中,RS=1.1,M=3,其他参数的设置根据目标函数的不同分为两组:对于f2,f3,f4,f7,f8这几个函数,PO、Pm和GS分别设置为0、0和1;对于f1,f5,f6,f9,f10这几个函数,PO、Pm和GS分别设置为0.1、0.1和2。

2.1 30维函数优化实验

将SMAEA与正交遗传算法(OGA/Q)[1]和多智能体遗传算法(MAGA)[9]进行比较,它们是两个性能非常好的算法,与这两个算法相关的实验数据来源于文献[9]。在文献[1]中OGA/Q的终止条件为运行1000代后若连续50代没有找到更优的解则停止。在文献[9]中MAGA的终止条件为运行150代。SMAEA的终止条件为收敛到了所优化函数的全局最优值或者算法已经运行了5000代。表1给出了三个算法对每个函数独立运行50次的平均结果。

由表1可见,对于f2,f3,f4,f7,f8,f10这6个函数,SMAEA只用了很少的评价次数就收敛到了全局最优值,远远小于OGA/Q和MAGA的评价次数。特别是对于f2,f3,f4,f7,f8这5个函数,只用了不到1000次的评价次数就收敛到了全局最优值。对于f1,f5,f6,f9这4个函数,SMAEA的评价次数虽略多于MAGA,但远远小于OGA/Q。该实验表明SMAEA具有较好的优化性能。对于f2,f4,f7~f10,OGA/Q总能找到全局最优解,这是由于OGA/Q采用正交设计来产生初始种群,当全局最优个体位于搜索空间的中心时,则初始种群总能包含全局最优个体。

2.2 20~1000维函数优化实验

由于目标函数搜索空间的大小和局部极值的数目是随着问题维数的增大而增长的,维数越高问题难度越大。本文研究了SMAEA求解20~1000维函数的优化性能。文献[9]中也对MAGA求解20~1000维函数作了研究,为便于比较,把SMAEA的终止条件设为和MAGA相同,即满足式(15)则退出算法。

其中fmin为函数全局最优值,fbest为算法当前代所求的函数值,并且ε=10-4。SMAEA若在5000代内不能收敛到所给精度则退出算法。SMAEA的参数设置和它在30维实验中的参数设置一样。表2和表3给出了两种算法随机运行50次的平均结果。表2和表3中的数据上面是解的平均评价次数,下面是解的标准方差。

表2中当SMAEA的评价次数少于MAGA时用粗体标出。对比表2和表3可以看出,对于所测试的60个结果,SMAEA有43个结果都优于MAGA,即SMAEA有72%的结果好于MAGA。特别是对于f2,f3,f4,f7,f8这5个函数,从20维到1000维,SMAEA所有的评价次数都不到1000次,而MAGA的评价次数为2420次~20306次。上述结果表明SMAEA具有较好的高维数值优化性能。

3 结语

本文提出了一种新的求解数值优化问题的进化算法,即简单多智能体进化算法(SMAEA),详细介绍了各个算子的工作机理。实验中通过对无约束函数优化的测试和与OGA/Q,MAGA等方法的比较表明,SMAEA具有很强的数值优化能力,对于高达1,000维的函数也可以获得理想的优化效果。SMAEA算法结构简单,其算子可灵活调整,可比较方便地与其他优化算法相结合。将算法推广至约束优化、多目标优化以及实际的工程优化问题是我们下一步的研究工作。

摘要:为解决高维无约束数值优化问题,提出了一种新的利用智能体寻优的进化算法:简单多智能体进化算法(SimpleMulti-Agent Evolutionary Algorithm,SMAEA)。算法在各世代中均从单个智能体出发进行进化,该智能体代表了待优化函数的一个候选解,它通过自翻转算子加速寻优,并通过自学习过程进化为更好的智能体。在自学习过程中,对原有智能体执行局部搜索算子以产生一个环状多智能体系统,并通过交叉翻转、正交交叉、变异等操作使智能体不断改进。对标准测试函数的仿真实验表明,当问题维数从20增至1,000时,该算法能以较少的评价次数收敛到全局最优值。

关键词:优化,数值优化,进化算法,智能体,多智能体

参考文献

[1]LEUNG Y W,WANG Y.An orthogonal genetic algorithm with quantization for global numerical optimization[J].IEEE Transactions on Evolutionary Computation,2001,5(1):41-53.

[2]ZHENGUO TU,YONG LU.A robust stochastic genetic algorithm(StGA)for global numerical optimization[J].IEEE Transactions on Evolutionary Computation,2004,8(5):456-470.

[3]慕彩红,焦李成,刘逸.M-精英协同进化数值优化算法[J].软件学报,2009,20(11):2925-2938.

[4]赵吉,孙俊,须文波.一种求解多峰函数优化问题的量子行为粒子群算法[J].计算机应用,2006,26(12):2956-2960.

[5]刘大有,杨鲲,陈建中.Agent研究现状与发展趋势[J].软件学报,2000,11(3):315-321.

[6]JIMING LIU,HAN JING,Y Y TANG.Multi-agent oriented constraint satisfaction[J].Articial Intelligence,2002,136(1):101-144.

[7]江瑞,罗予频,胡东成,等.一种基于多Agent协同的准并行遗传算法[J].电子学报,2002,30(10):1490-1495.

[8]薛明志,钟伟才,刘静,等.正交Multi-agent遗传算法及其性能分析[J].控制与决策,2004,19(3):290-294.

基于博弈论的多智能体协同控制算法 第8篇

对于相邻路口间来说,存在博弈现象:由路口间交通流的关系可以知道,路口的交通流必定是由与之相邻的上游路口的各个相邻相位的交通流汇聚而成;而该路口的交通流必定驶向下游路口的某个相位。假设路口放行的车辆越多,该路口的效益则越大,给下游相邻路口带来的效应是交通流的增多。如果下游路口交通流的迅速增多使得该路口绿灯时间超过了最大绿灯时间限制,将会导致该路口的拥挤,同样也会对上游路口以及下游路口带来影响。故,路口间的信号控制需要寻找路口间的Nash均衡解,来使得路口间的效益达到最大化。李振龙等提出基于Agent的区域交通信号协调控制[2],建立了一主多从动态博弈协调模型。

本文建立了交通信号控制多智能体协同模型,并提出了基于博弈论的多智能体分布式协同控制算法, 最后通过仿真平台模拟比较了不同控制策略的表现, 证明了本文的控制方式可有效的应用到复杂的交通系统控制中。

1 基于 Agent 的分布式控制系统架构

在交通控制系统中,所有的路口Agent和区域A- gent都有着共同的全局目标和自己的局部目标,即尽量使本路口或本区域交通畅通。虽然路口Agent无法获得整个道路的全局状态,但是由于只有来自邻居路口的车流可以直接影响当前路口下一时刻的交通状况[3],因此,每个路口Agent的决策必然要受到其邻居路口A- gent策略选择的影响,Agent之间必然会发生一定程度的冲突。因此,本文中,在路网中的每个交叉口为一个路口智能体。与之相邻的四个路口智能体构成一个区域智能体。智能体的系统框架图如图1所示。这个路网与单交叉口场景有极大的不同。总之,不需要有局部目标的路口智能体去获取它所在路网的整体状态来预测邻居的行动。相反,路口智能体通过从过去多次的博弈中所获得的经验进行推断。如果交互时间足够长,路口智能体可以逐渐学习新的平衡点。在保证变化率小于学习时间的情况下,环境发生局部变化时需要参与者选择策略来应对新形势,而邻居能获得新行为。最终, 通过一次全局范围环境的改变,所有的邻居必须从区域智能体那里学习新的全局交通模式并适应它。

这个框架的主要动机就是在所有具有局部目标的路口智能体交互处理时获得收益,且只需要知道他们自己的收益而不是对方的。

这个框架所具有的特征是:第一,路网中每个路口的地理位置用于定义在智能体间的哪种交互,即在所有路口智能体间的交互不是随机发生的;第二,学习是这个方法的一个重要环节。因此,最近的博弈历史对未来的策略选择有重要意义。只有当智能体检测到环境变化时,这个历史被部分舍弃,在此情况下智能体只能以新的方式做出反应。基于智能体和它的邻居的反应, 区域智能体给出一个反馈,并且在新环境下重新开始新的学习过程。在每个周期更新策略的过程通过计算完成,在下一个周期执行策略的概率是一个先前的回报函数。此外,为了避免由于策略的确定性更新引发行为同步,更现实的方法是让智能体以非同步的方式更新;第三,在需要的交通环境下,通信保持尽可能低。因此,为了减少通信,智能体不被通知他的邻居所选择的策略。智能体收到基于他们在最近的过去采取的策略的强化,且这个信息只被他当地的探测器获取。然而, 如果他们也根据这个全局目标获得收益,智能体基于这个全局目标有一个激励进行协同,即通过共同作用使整个道路的交通流更畅通。因此,该方法是一个交通控制方法。每个交通流选择道路的时间比例是基于平等地利用路网中的所有道路而恰当考虑的。

2 基于博弈论的协同控制算法

在路网K中路口智能体i与他的每个邻居进行双人博弈G,G由五元组表示,其中:

I=(1,…,n)是路口智能体集合,n是自然数;

Ai=(ai,1,…,ai,k,…,ai,n)是路口智能体i的纯策略集;

映射πi:Xj∈IAi→R是路口智能体i的收益函数;

另有(路口智能体i的混合策略)是在Ai上的概率分布;

Pi,k是被分配给路口智能体i的第k个纯策略的概率,对于每个aik∈Ai有Pi,k≥0且∑kPi,k=1;

Si是路口智能体i的所有混合策略集;

S=Xj∈ISi是G的混合策略组合;

对于I中的每个路口智能体i仅基于它选择一个行动获得的收益来更新混合策略。路口智能体i的混合策略是依赖于时间的。在时间t选择了一个策略ai,t后,路口智能体i收到一个由包含对Ni(路口智能体i的所有邻居智能体集合)中的每个路口智能体j执行策略G的收益总和计算得来的个人收益。

在博弈开始前,路口智能体和他们的支付函数是由区域智能体设置的。它的收益选择是表示交通流的随机动力学的标志。区域智能体决定每个路口智能体i的策略的概率分布向量以及S中的混合策略s的每个可能组合的支付函数。每个路口智能体都有探测器,他们可获得当地交通状况的数据,知道交通状况是拥堵还是畅通。在下一阶段,路口智能体以基于他们对自己环境的信任决定的某概率选择一个策略。

在路网K中的路口智能体i由于当地的随机事件的发生在发生变化的阶段,称之为局部状态变化阶段。其余的是正常的获取收益阶段。在这个阶段,路口智能体只跟他的邻居智能体进行协同博弈。

2.1 局部状态变化阶段

出于实用性,交通量的变化被认为是随机过程。这个量可在本地和全局范围内发生变化。后者的一个例子就是车辆群的到达将穿过整个干线并能够被路网边界探测到。当然交通状况的全局变化也能产生局部波动[3]。

本地变化的例子就是来自人行横道的抵达,还是穿过一个交叉口或交叉口的一部分。这个本地随机事件在路口智能体i以概率σi发生,同时全局变化以概率γ发生。

本地事件可通过在每个交叉口放置探测器进行探测,探测器只放置在干线的主干道上。交叉口智能体先将每个探测器的车流量与其他的进行对比,再将探测器按车流量大小进行降序分类,并将这些信息存储在堆栈中。每当栈顶有变化时就意味着本地事件发生了。这就需要一个基于此事件的混合策略分布的变化。对每个探测器而言都对应唯一的纯策略。

当在时刻t=ρ时路口智能体i发生一起本地事件,路口智能体i以对应的第k个探测器测量的车流量的函数qi,k更新向量:

其中d (qi,k,t)=qi,k,t/∑kqi,k,t且对于每个aik∈Ai:pi,k,t≥0且∑kpi,k,t=1。

在t=0时,这个等式用于初始化向量,这个分布用于下一时刻的策略选择直到一个局部状态变化阶段到来,然后更新分布。

2.2 收益获得阶段

区域智能体知道交通流的全局模式而路口智能体不知道。区域智能体能通过决策中心接收到路网中的全局变化。因此,区域智能体能够根据向量P n为路口智能体设置相应的支付函数。

一个2×2的协同博弈改变如图2所示。比如,如果当前交通状况需要交通信号通过路口智能体选择一个策略S1实现同步,路口智能体必会选择能带来更好收益的策略。当交通流发生全局变化时区域智能体就会改变支付函数。

支付取决于区域智能体选择的支付矩阵和路口智能体选择的策略。如果他们由Q1(a1>b1>c)支付且两个路口智能体都选择策略S1,其中s1属于si={s1,s2},那么他们都得到的收益为a1。如果选择s2,他们得到的收益为b1。否则他们得到的收益为c。

每个结构E1=(s1,s1)和E2=(s2,s2)都是纯策略的纳什均衡。混合策略的第三个平衡在以概率b1/(a1+b1)执行策略s1和以概率a1/(a1+b1)执行策略s2时达到,整个区域以支付矩阵Q1获得收益。对应的例子中,平衡达到时s2的概率为b2/(a2+b2)和s1的概率是a2/(a2+b2)。在时间段内,只有最优的平衡会被选择。

在每个收益获取阶段,路口智能体i与他邻居的每个路口智能体j进行两人的协同博弈,然后选择一个在Ai上的混合策略。当在时刻t策略集s=(ai,ai)被选择时路口智能体i的收益是πi,j,t(s)。智能体从这些博弈中获取总收益。因此,路口智能体i在t时刻获得的收益表示为:

令τ>0为时间间隔,ai,t∈Ai是智能体i在时刻t选择的策略,ai,k的每个第k个纯策略都可被选择。在最后的τ阶段获得的收益由向量π*i,τ表示:

π *i,k,τ=(π* i,1,τ,…,π* i,k,τ,…,π* i,m,τ),当1≤k≤m时纯策略ai,k属于Ai。

最后,在t∈τ且t≥1时向量π* i,τ的每个元素的计算公式如下:

2.3 基于博弈论的协同控制算法

综上,可以将模型动态描述为以下的算法:

3 实验仿真

基于以上的框架和算法,对简单交通网络做仿真实验,如图3所示。

假设车辆到 达服从泊 松分布 ;转向概率 为 {p左,直 ,p右={0.65,0.35};交叉口均为两相位控制;交叉口数目为5;信号灯周期C=60s;相位差为0;绿信比由交叉口控制器决定;采用的性能指标为:J=k1D+k2S;式中,D为路网中车辆的平均延误时间,S为平均停车次数,k1,k2为加权系数。仿真实验采用常规交通信号控制和基于多智能体博弈的协同控制进行对比研究。流量分别为1200veh/h和2000veh/h的仿真结果对比图如图4(a)、图4(b)所示。



(a)流量为 1200veh/h 时的性能指标对比图(b)流量为 2000veh/h 的性能指标对比图

从仿真结果可以看出,本文提出的方法能够根据交通流的变化情况,实时的调整周期、相位差和绿信比,通过各Agent间的博弈来寻求最优策略。与常规控制相比,其性能指标的波动幅度小,性能指标好,能有效的进行交通流的调整,实现交通畅通。

4 总结

通过将博弈论引入到交通控制系统中解决交通拥堵问题,以实现交通畅通,车辆无延迟的通过各路口, 本文构造了多智能体协同控制框架。该框架中路口智能体只需探测到自身的路段交通状况和收到的邻居的交通状况,该路口智能体利用所给的协同控制算法与邻居路口进行博弈,通过计算收益来选择最优的策略实现交通的畅通。最后通过仿真实验显示本文所提的算法能够有效的适应交通流的变化,选出最优策略。

摘要:为实现交通的畅通,将博弈论引入到交通控制系统中。由于当前路口交通状况只受到来自邻居路口的车辆的影响,提出了基于多智能体的分布式协同控制框架,路口智能体与邻居通过协同博弈选出最优策略进行交通控制。描述了基于博弈论的协同控制算法,并通过仿真验证了该算法能够有效的适应交通流,实现交通控制。

多智能体建模 第9篇

配电网作为电力系统的重要组成部分, 是现代化城市的基础设施。随着城市的发展, 配电网的负荷越来越大, 系统越来越复杂, 同时由于大量新能源的接入, 使配电网的负荷、潮流的问题非常突出, 如何进行合理地规划, 保证电网的安全性经济性, 是电力部门的一项重要任务。配网重构作用主要是降低网损和馈线负荷, 同时必须考虑的是供电部门的开关投切和运行费用和线路停电频率对用户的影响。所以, 如何建立长期合理的模型和通过自动化系统设立优化方法非常必要, 密切关系着经济效益。

配电网重构的研究, 国内外己经有比较多的成果。多种智能算法被提出来, 包括传统的智能算法, 如遗传算法、神经网络、启发方法等及混合算法等[1,2]。随机化方法得到了广泛的应用, 在文献[3]中提出了控制器与神经网络结合的新颖的重构模型。在文献[4]中提出TS算法的解决这种问题的新的思路。并获得了最优解。本文给出了自学习多智能体协同进化的算法来解决该问题。

二、自学习多智能体配电网重构优化的模型

本论文讨论的核心是一个多目标的优化问题, 目前配电网重构的目标一般为降低配电网网损、负荷均衡、提高供电电压质量和稳定性、故障恢复时间最短、停电范围最小为目标函数, 或综合几个目标为目标的配电网络重构。主要研究集中在网损最小和配电负荷均衡化为目标两大类上。对于开断的支路k, 其电压均衡指标VBIk为:

式中, Ui是支路k起始归一化电压, Uj支路k终端归一化电压max是最大值运算, min是最小值运算。通过电压均衡指标进行处理, 配网电压均衡目标函数为:

式中, M是为了满足配电网连通性和放射性约束必须断开的支路数。网损值是配电网重构中最重要的指标, 其目标函数可以表示为:

其中nb为配电网支路的数量度量值;ri为支路i电阻的阻值;Ii&为支路i的负荷电流值;ki为开关i状态值, 为布尔值0或1 (其中0为断开, 1为闭合) 。

配电网重构是一个多目标的优化问题, 电压均衡指标和和网损指标不能同时满足, 鉴于变化趋势的一致性, 本论文应用了线性加权法进行处理, 通过目标加权求和形式获得目标函数。其处理后的单目标规划问题函数为:

λ1为电压均衡指标的权重系数, 为网损指标的权重系数, 其中有λ1+λ2=1, 本文中由于侧重电压质量改善, 取值为λ1>λ2。

约束条件如下:

(1) 连通性、放射性和配网节点电压约束条件

配网的连通性和放射性是基本约束, 搜索解必须满足基本约束。式中, 为节点i电压值;Umax为节点的电压最大值, Umin为电压最小值。

(2) 配网线路载流的约束条件

式中, 为线路 的当前载流量;必须小于理论上线路j的最大载流量Ijmax。通过以上数学模型对配电网的重构进行优化。

三、自学习多智能体进化的算法设计

本方法用多智能体, 将一天分为多个时段, 单位时段利用群体协同进化算法静态重构, 每一个智能体负责一个时段内的静态重构, 它的目标即目标函数最小, 求得一解集。然后用智能体的解进行协调, 最终得到一天内动态重构的解。由于现在的配电网一般采用“手拉手”的供电方式, 馈线比较多, 对应的多智能体免疫模型中的Agent就比较多。配网重构算法的步骤如下:

步骤1:选定初始参数, 随机产生搜索群体Ak和参考群体Re;判断约束条件是否满足, 如不符合条件, 通过搜索群体随机产生多个个体数据, 并补充到开始提出的参考群体, 直到产生群体数目量, 可以构建约束条件参考群体。

步骤2:对搜索群体Ak的相关元素成员进行重构目标函数的约束条件判定, 对于满足条件直接计算适应值;对于不满足约束条件的解, 则放入由不可行群体组成的否定群体, 并将解从Ak中删除。

步骤3:将Ak进行自适应算法的进化, 按照如下过程进行, 随机选择、进行变异、解的替换、保留优秀解等操作, 并对替换中产生的新个体中的不可行解, 通过步骤2方法进行修复, 修复后的解成即为可行解。

步骤4:每隔m代, 对Re群体中的解进行自主替换, 通过最优个体替代部分替换掉Ak中最差个体解, 保持最优性

步骤5:判断条件, 如果没有终止, 即转向步骤3;否则结束, 即可输出结果。

步骤6:为吸收其他智能体解集中的优秀解, 相邻的智能体之间应相互学习。学习过程为将前后相邻智能体的解集和自己的解集, 作为进化算法种群的初始值, 重新进行优化计算。各工作智能体依次进行学习, 直到一轮学习过程中, 所有工作智能体的解集不再改变为止。图2为自学习多智能体免疫群体协同进化的算法流程。

从图2中可以看出, 此算法流程首先基于免疫进化重构得到解集;再与相邻的Agent进行学习, 来完善解集;然后从解集中选出最优解作为种子解;下一步感知环境, 计算差异度;在计算结果中选择优先补充解;将优先补充解代替种子解, 然后向其他Agent发出消息, 返回感知环境, 进行循环计算。

四、结论

本文针对配电网重构问题, 提出了自学习多智能体协同进化的算法, 用以求解配电网重构的数学模型。根据目标函数求出各时段的最优解作为种子解, 再根据约束条件, 选择一部分时段放弃最优解, 而改选解集中的次优解, 使约束条件得以满足, 提出相适应的基于环路的编码规则, 该方法具有一定的先进性, 提高了电网的安全性, 也可以适用于供电质量, 无功优化的方面的研究。

摘要:本文分析了配电网重构的研究现状, 提出了自学习多智能体协同进化的算法, 用以求解配电网重构优化的数学模型, 给出了自学习多智能体进化的算法设计, 使约束条件得以满足, 该方法具有一定的先进性, 提高了电网的安全性。

关键词:自学习多智能体,配电网重构,协同进化,约束条件

参考文献

[1]刘蔚, 韩祯祥.基于最优流法和遗传算法的配电网重构[J].电网技术, 2004, 28 (19) :29-33.

[2]杨建军, 战红.基于图论的改进遗传算法在配网重构中的应用[J].电力系统保护与控制, 2010, 38 (21) :122-125.

[3]金丽成, 邱家驹.基于CMAC神经网络的配网重构模型[J].浙江大学学报 (工学版) , 2004, 38 (6) :785-788.

上一篇:高职能力培养有机化学下一篇:非洲的农业政策特点