粒子群算法ppt课件.ppt
《粒子群算法ppt课件.ppt》由会员分享,可在线阅读,更多相关《粒子群算法ppt课件.ppt(79页珍藏版)》请在三一办公上搜索。
1、粒子群算法,智能优化计算,1 粒子群算法的基本原理 1.1 粒子群算法的提出 1.2 粒子群算法的原理描述2 基本粒子群优化算法 2.1 基本粒子群算法描述 2.2 参数分析 2.3 与遗传算法的比较3 改进粒子群优化算法 3.1 离散二进制PSO 3.2 惯性权重模型 3.3 收敛因子模型 3.4 研究现状,智能优化计算,4 粒子群优化算法的应用 4.1 求解TSP问题 4.2 其它应用5 群智能算法的特点与不足,智能优化计算,群智能,智能优化计算,群智能( Swarm Intelligence, SI ) 人们把群居昆虫的集体行为称作“群智能”(“群体智能”、“群集智能”、“集群智能”等)
2、 特点 个体的行为很简单,但当它们一起协同工作时,却能够突现出非常复杂(智能)的行为特征。,群智能的概念,群智能,智能优化计算,描述 群智能作为一种新兴的演化计算技术已成为研究焦点,它与人工生命,特别是进化策略以及遗传算法有着极为特殊的关系。特性 指无智能的主体通过合作表现出智能行为的特性,在没有集中控制且不提供全局模型的前提下,为寻找复杂的分布式问题求解方案提供了基础。,群智能算法,群智能,智能优化计算,优点 灵活性:群体可以适应随时变化的环境;稳健性:即使个体失败,整个群体仍能完成任务; 自我组织:活动既不受中央控制,也不受局部监管。典型算法 蚁群算法(蚂蚁觅食) 粒子群算法(鸟群捕食)
3、人工蜂群算法(蜜蜂采蜜),群智能算法,智能优化计算,由James Kenney(社会心理学博士)和Russ Eberhart(电子工程学博士, http:/www.engr.iupui.edu/eberhart/ )于1995年提出粒子群算法(Particle Swarm Optimization, PSO),1 粒子群算法的基本原理,1.1 粒子群算法的提出,8,五年后,在国际上逐步被接受,并有大批不同领域的学者投入该算法相关研究,目前已经成为智能优化领域研究的热门 2003年,控制与决策第二期刊登国内第一篇PSO论文综述文章,智能优化计算,1 粒子群算法的基本原理,1.1 粒子群算法的提出
4、,9,2022/11/19,历年发表论文的数目,与微粒群优化相关论文的数目分布,10,相关资源,2001年,Kennedy等出版优秀著作Swarm Intelligence,对微粒群优化及其应用作了全面而系统的论述。,专著,1999年首届进化计算会议上微粒群优化算法即被定为会议讨论议题。 IEEE 群体智能研讨会 Genetic and Evolutionary Computation 国际会议,会议及其杂志,网址,http:/, http:/icdweb.cc.purdue.edu/hux/pso.shtml.,Evolutionary Computation (MIT press) IEE
5、E Transactions on Evolutionary ComputationIEEE Transactions on Neural NetworkIEEE Transactions on Systems, Man, and Cybernetics Part: A,BSwarm Intelligence,智能优化计算,源于对鸟群捕食行为的研究,是基于迭代的方法简单易于实现,需要调整的参数相对较少在函数优化、神经网络训练、工业系统优化和模糊系统控制等领域得到了广泛的应用。,1 粒子群算法的基本原理,1.1 粒子群算法的提出,智能优化计算,鸟群: 假设一个区域,所有的鸟都不知道食物的位置,但
6、是它们知道当前位置离食物还有多远。PSO算法 每个解看作一只鸟,称为“粒子(particle)”,所有的粒子都有一个适应值,每个粒子都有一个速度决定它们的飞翔方向和距离,粒子们追随当前最优粒子在解空间中搜索。,1 粒子群算法的基本原理,1.2 粒子群算法的原理描述,13,单个鸟整个鸟群鸟群寻找食物的飞行策略,鸟群行为,PSO就是对鸟群或鱼群寻找食物这种群体行为的模拟。,智能优化计算,PSO算法 初始化为一群随机粒子,通过迭代找到最优。 每次迭代中,粒子通过跟踪“个体极值(pbest)”和“全局极值(gbest)”来 更新自己的位置。,1 粒子群算法的基本原理,1.2 粒子群算法的原理描述,智能
7、优化计算,粒子速度和位置的更新 假设在D维搜索空间中,有m个粒子; 其中第i个粒子的位置为矢量 其飞翔速度也是一个矢量,记为 第i个粒子搜索到的最优位置为 整个粒子群搜索到的最优位置为 第i个粒子的位置和速度更新为:,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,粒子速度和位置的更新 其中,w称为惯性权重, c1和c2为两个正常数,称 为加速因子。 将 vidk 限制在一个最大速 度 vmax 内。,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,粒子速度和位置的更新,2 基本粒子群优化算法,2.1 基本粒子群算法描述,“惯性部分”,对自身运动状态的信任,
8、“认知部分”,对微粒本身的思考,即来源于自己经验的部分,“社会部分”,微粒间的信息共享,来源于群体中的其它优秀微粒的经验,智能优化计算,迭代过程,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,算法流程,2 基本粒子群优化算法,Start,Initialize particles with random position and velocity vectors.,For each particles position (xi) evaluate fitness,If fitness(xi) better than fitness(p) then p= xi,Loop unt
9、il all particles exhaust,Set best of ps as gBest,Update particles velocity and position,Loop until max iter,Stop: giving gBest, optimal solution.,2.1 基本粒子群算法描述,智能优化计算,惯性权重w 使粒子保持运动惯性,使其有扩展搜索空间的趋势,有能力探索新的区域。 表示微粒对当前自身运动状态的信任,依据自身的速度进行惯性运动。 较大的w有利于跳出局部极值,而较小的w有利于算法收敛。,2 基本粒子群优化算法,2.2 参数分析,21,惯性权重(续),通
10、过调节w值,可以控制PSO的全局探索和局部开发能力:,w1:微粒速度随迭代次数的增加而增加,微粒发散。 0w1 :微粒减速,算法的收敛性依靠惯性权重 和 。 w0:微粒速度随迭代次数的增加而减小,最后趋近0,算法收敛。,实验表明,w=0.7298和 时算法具有较好的收敛性能。,22,2022/11/19,惯性权重(续),智能优化计算,加速常数c1和c2 代表将微粒推向pbest和gbest位置的统计加速项的权重。 表示粒子的动作来源于自己经验的部分和其它粒子 经验的部分。 低的值允许粒子在被拉回之前可以在目标区域外徘 徊,而高的值则导致粒子突然冲向或越过目标区 域。,2 基本粒子群优化算法,2
11、.2 参数分析,24,2022/11/19,加速度系数(Acceleration coefficients),:两个加速度系数,又称学习因子,用来控制 和 对微粒 飞行方向的影响。,25,自适应或动态加速度系数:,实验建议:,Ratnaweera等:基于迭代次数对两个加速度系数进行动态调节,其中, 随进化代数增加而减小;相反, 随进化代数增加而增大。,智能优化计算,加速常数c1和c2 将c1和c2统一为一个控制参数,= c1+c2 如果很小,微粒群运动轨迹将非常缓慢; 如果很大,则微粒位置变化非常快; 实验表明,当=4.1(通常c1=2.0,c2=2.0)时,具有很好的收敛效果。,2 基本粒子
12、群优化算法,2.2 参数分析,智能优化计算,粒子数 一般取2040,对较难或特定类别的问题可以取 100200。最大速度vmax 决定粒子在一个循环中最大的移动距离,通常设定为粒子的范围宽度。终止条件 最大循环数以及最小错误要求。,2 基本粒子群优化算法,2.2 参数分析,智能优化计算,共性 (1)都属于仿生算法; (2)都属于全局优化方法; (3)都属于随机搜索算法; (4)都隐含并行性; (5)根据个体的适配信息进行搜索,因此不受函数约束条件的限制,如连续性、可导性等; (6)对高维复杂问题,往往会遇到早熟收敛和收敛性能差的缺点,都无法保证收敛到最优点。,2 基本粒子群优化算法,2.3 与
13、遗传算法的比较,智能优化计算,差异 (1)PSO有记忆,所有粒子都保存较优解的知识,而GA,以前的知识随着种群的改变被改变; (2)PSO中的粒子是一种单向共享信息机制。而GA中的染色体之间相互共享信息,使得整个种群都向最优区域移动; (3)GA需要编码和遗传操作,而PSO没有交叉和变异操作,粒子只是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。,2 基本粒子群优化算法,2.3 与遗传算法的比较,智能优化计算,用途 基本PSO是用来解决连续问题优化的,离散二进制PSO用来解决组合优化问题。运动方程不同 粒子的位置只有(0,1)两种状态。速度值越大,则粒子位置取1的可能性越大,反之
14、越小。,3 改进粒子群优化算法,3.1 离散二进制PSO,智能优化计算,思路 在考虑实际优化问题时,往往希望先采用全局搜索,使搜索空间快速收敛于某一区域,然后采用局部精细搜索以获得高精度的解。 研究发现,较大的 w 值有利于跳出局部极小点,而 较小的 w 值有利于算法收敛,因此提出了自适应调 整的策略,即随着迭代的进行,线性地减小 w 的 值。,3 改进粒子群优化算法,3.2 惯性权重模型,智能优化计算,变化的惯性权重 wmax、wmin分别是w的最大值和最小值;iter、itermax分别是当前迭代次数和最大迭代次数。,3 改进粒子群优化算法,3.2 惯性权重模型,智能优化计算,提出 199
15、9年Clerc对算法的研究证明,采用收敛因子能 够确保算法的收敛。收敛因子模型 通常将设为4.1,经计算k为0.729。,3 改进粒子群优化算法,3.3 收敛因子模型,34,每个微粒的行为受到邻域微粒的影响,该邻域可以看做微粒群拓扑中的一个子区域。微粒群拓扑中所有子区域通过一定方式相互关联,共同对问题空间进行协同搜索。,全局版PSO:每个微粒受整个微粒群所发现最好位置的影响, 即每个微粒的邻域是整个微粒群; 局部版PSO:每个微粒受所定义的局部邻域中微粒的影响,而 微粒的邻域由拓扑图中每条边上距离它最近的微粒组成。,常用的两类PSO算法:,智能优化计算,3 改进粒子群优化算法,3.4微粒群拓扑
16、结构,35,2022/11/19,几种拓扑结构:,全连接拓扑(all),环形拓扑(ring),Von Neumann 拓扑,星状拓扑(star),锥形拓扑(pyramid),四聚类拓扑(clusters),全连接拓扑为全局拓扑,其余都为邻域规模不同的局部拓扑。部分图来自 Mendes 和Kennedy(2004).,36,我们应该选择那种拓扑结构?,全连接拓扑信息传输速度快,相应地,PSO算法收敛速度快, 但是易于早熟收敛;环形拓扑信息传输速度最慢,相应地, PSO算法收敛速度慢,但是微粒有更多的机会发现最优解。,Kennedy(1999)指出:在处理简单问题时,采用较小邻域的PSO 算法性能
17、较好;在处理复杂问题时,采用较大邻域的PSO算法性 能较好。,Mendes和Kennedy(2002)在对比不同拓扑结构时发现:Von Neumann拓扑优于其它拓扑。,Suganthan (1999),在PSO算法初期采用局部版PSO, 后期采用 全局版PSO; Hu和Eberhart (2002), 提出了动态拓扑结构的概念。每次迭代时 选择与当前微粒最近的m个微粒作为它的新邻域。,37,基于距离的拓扑结构基于距离的拓扑结构是在每次迭代时,计算一个粒子与种群中其他粒子之间的距离,然后根据这些距离来确定该粒子的邻域构成。一种动态邻域拓扑结构:在搜索开始的时候,粒子的邻域只有其自己,即将个体最
18、优解作为邻域最优解,然后随着迭代次数的增加,逐渐增大邻域,直至最后将群体中所有粒子作为自己的邻域成员。这样使初始迭代时可以有较好的探索性能,而在迭代后期可以有较好的开发性能。,智能优化计算,3 改进粒子群优化算法,3.4微粒群拓扑结构,38,39,学习因子c1和c2同步时变,四.PSO的改进与变形,40,面对复杂优化问题, PSO在优化速度上显得“力不从心”。,为求得满意的优化结果,常需要计算相当多次的函数值; 对于一些实际问题,计算单个函数值就可能需要付出昂贵代价。,智能优化计算,3 改进粒子群优化算法,3.5 并行粒子群算法,41,2022/11/19,主从式模式,又称全局式PSO,主处理
19、器:执行微粒全局最优点的选择、微粒位置更新等算子;从处理器:并行计算多个微粒的函数值。,算法每次迭代时,主处理器分配新生微粒到各从处理器;从处理器计算所接受微粒的函数值, 并将其返回给主处理器;主处理器利用从处理器返回的微粒 函数值,首先更新微粒的个体最优 点和全局最优点,接着,更新微粒 的速度和位置。返回。,缺点:由于未对PSO算法框架进行改动,所以该模式存在主从节点负荷忙闲 不均衡的问题,42,2022/11/19,细粒度模式,又称扩散式PSO,赋予每个微粒一个处理器。对每个微粒,微粒全局最优点的选择和微粒位置更新皆在其所处处理器及其邻域(红色图标)中进行。,该模型可以最大限度的发挥算法的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 粒子 算法 ppt 课件
链接地址:https://www.31ppt.com/p-1400994.html