粒子群算法ppt课件.ppt
粒子群算法,智能优化计算,1 粒子群算法的基本原理 1.1 粒子群算法的提出 1.2 粒子群算法的原理描述2 基本粒子群优化算法 2.1 基本粒子群算法描述 2.2 参数分析 2.3 与遗传算法的比较3 改进粒子群优化算法 3.1 离散二进制PSO 3.2 惯性权重模型 3.3 收敛因子模型 3.4 研究现状,智能优化计算,4 粒子群优化算法的应用 4.1 求解TSP问题 4.2 其它应用5 群智能算法的特点与不足,智能优化计算,群智能,智能优化计算,群智能( Swarm Intelligence, SI ) 人们把群居昆虫的集体行为称作“群智能”(“群体智能”、“群集智能”、“集群智能”等) 特点 个体的行为很简单,但当它们一起协同工作时,却能够突现出非常复杂(智能)的行为特征。,群智能的概念,群智能,智能优化计算,描述 群智能作为一种新兴的演化计算技术已成为研究焦点,它与人工生命,特别是进化策略以及遗传算法有着极为特殊的关系。特性 指无智能的主体通过合作表现出智能行为的特性,在没有集中控制且不提供全局模型的前提下,为寻找复杂的分布式问题求解方案提供了基础。,群智能算法,群智能,智能优化计算,优点 灵活性:群体可以适应随时变化的环境;稳健性:即使个体失败,整个群体仍能完成任务; 自我组织:活动既不受中央控制,也不受局部监管。典型算法 蚁群算法(蚂蚁觅食) 粒子群算法(鸟群捕食) 人工蜂群算法(蜜蜂采蜜),群智能算法,智能优化计算,由James Kenney(社会心理学博士)和Russ Eberhart(电子工程学博士, http:/www.engr.iupui.edu/eberhart/ )于1995年提出粒子群算法(Particle Swarm Optimization, PSO),1 粒子群算法的基本原理,1.1 粒子群算法的提出,8,五年后,在国际上逐步被接受,并有大批不同领域的学者投入该算法相关研究,目前已经成为智能优化领域研究的热门 2003年,控制与决策第二期刊登国内第一篇PSO论文综述文章,智能优化计算,1 粒子群算法的基本原理,1.1 粒子群算法的提出,9,2022/11/19,历年发表论文的数目,与微粒群优化相关论文的数目分布,10,相关资源,2001年,Kennedy等出版优秀著作Swarm Intelligence,对微粒群优化及其应用作了全面而系统的论述。,专著,1999年首届进化计算会议上微粒群优化算法即被定为会议讨论议题。 IEEE 群体智能研讨会 Genetic and Evolutionary Computation 国际会议,会议及其杂志,网址,http:/, http:/icdweb.cc.purdue.edu/hux/pso.shtml.,Evolutionary Computation (MIT press) IEEE Transactions on Evolutionary ComputationIEEE Transactions on Neural NetworkIEEE Transactions on Systems, Man, and Cybernetics Part: A,BSwarm Intelligence,智能优化计算,源于对鸟群捕食行为的研究,是基于迭代的方法简单易于实现,需要调整的参数相对较少在函数优化、神经网络训练、工业系统优化和模糊系统控制等领域得到了广泛的应用。,1 粒子群算法的基本原理,1.1 粒子群算法的提出,智能优化计算,鸟群: 假设一个区域,所有的鸟都不知道食物的位置,但是它们知道当前位置离食物还有多远。PSO算法 每个解看作一只鸟,称为“粒子(particle)”,所有的粒子都有一个适应值,每个粒子都有一个速度决定它们的飞翔方向和距离,粒子们追随当前最优粒子在解空间中搜索。,1 粒子群算法的基本原理,1.2 粒子群算法的原理描述,13,单个鸟整个鸟群鸟群寻找食物的飞行策略,鸟群行为,PSO就是对鸟群或鱼群寻找食物这种群体行为的模拟。,智能优化计算,PSO算法 初始化为一群随机粒子,通过迭代找到最优。 每次迭代中,粒子通过跟踪“个体极值(pbest)”和“全局极值(gbest)”来 更新自己的位置。,1 粒子群算法的基本原理,1.2 粒子群算法的原理描述,智能优化计算,粒子速度和位置的更新 假设在D维搜索空间中,有m个粒子; 其中第i个粒子的位置为矢量 其飞翔速度也是一个矢量,记为 第i个粒子搜索到的最优位置为 整个粒子群搜索到的最优位置为 第i个粒子的位置和速度更新为:,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,粒子速度和位置的更新 其中,w称为惯性权重, c1和c2为两个正常数,称 为加速因子。 将 vidk 限制在一个最大速 度 vmax 内。,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,粒子速度和位置的更新,2 基本粒子群优化算法,2.1 基本粒子群算法描述,“惯性部分”,对自身运动状态的信任,“认知部分”,对微粒本身的思考,即来源于自己经验的部分,“社会部分”,微粒间的信息共享,来源于群体中的其它优秀微粒的经验,智能优化计算,迭代过程,2 基本粒子群优化算法,2.1 基本粒子群算法描述,智能优化计算,算法流程,2 基本粒子群优化算法,Start,Initialize particles with random position and velocity vectors.,For each particles position (xi) evaluate fitness,If fitness(xi) better than fitness(p) then p= xi,Loop until all particles exhaust,Set best of ps as gBest,Update particles velocity and position,Loop until max iter,Stop: giving gBest, optimal solution.,2.1 基本粒子群算法描述,智能优化计算,惯性权重w 使粒子保持运动惯性,使其有扩展搜索空间的趋势,有能力探索新的区域。 表示微粒对当前自身运动状态的信任,依据自身的速度进行惯性运动。 较大的w有利于跳出局部极值,而较小的w有利于算法收敛。,2 基本粒子群优化算法,2.2 参数分析,21,惯性权重(续),通过调节w值,可以控制PSO的全局探索和局部开发能力:,w1:微粒速度随迭代次数的增加而增加,微粒发散。 0w1 :微粒减速,算法的收敛性依靠惯性权重 和 。 w0:微粒速度随迭代次数的增加而减小,最后趋近0,算法收敛。,实验表明,w=0.7298和 时算法具有较好的收敛性能。,22,2022/11/19,惯性权重(续),智能优化计算,加速常数c1和c2 代表将微粒推向pbest和gbest位置的统计加速项的权重。 表示粒子的动作来源于自己经验的部分和其它粒子 经验的部分。 低的值允许粒子在被拉回之前可以在目标区域外徘 徊,而高的值则导致粒子突然冲向或越过目标区 域。,2 基本粒子群优化算法,2.2 参数分析,24,2022/11/19,加速度系数(Acceleration coefficients),:两个加速度系数,又称学习因子,用来控制 和 对微粒 飞行方向的影响。,25,自适应或动态加速度系数:,实验建议:,Ratnaweera等:基于迭代次数对两个加速度系数进行动态调节,其中, 随进化代数增加而减小;相反, 随进化代数增加而增大。,智能优化计算,加速常数c1和c2 将c1和c2统一为一个控制参数,= c1+c2 如果很小,微粒群运动轨迹将非常缓慢; 如果很大,则微粒位置变化非常快; 实验表明,当=4.1(通常c1=2.0,c2=2.0)时,具有很好的收敛效果。,2 基本粒子群优化算法,2.2 参数分析,智能优化计算,粒子数 一般取2040,对较难或特定类别的问题可以取 100200。最大速度vmax 决定粒子在一个循环中最大的移动距离,通常设定为粒子的范围宽度。终止条件 最大循环数以及最小错误要求。,2 基本粒子群优化算法,2.2 参数分析,智能优化计算,共性 (1)都属于仿生算法; (2)都属于全局优化方法; (3)都属于随机搜索算法; (4)都隐含并行性; (5)根据个体的适配信息进行搜索,因此不受函数约束条件的限制,如连续性、可导性等; (6)对高维复杂问题,往往会遇到早熟收敛和收敛性能差的缺点,都无法保证收敛到最优点。,2 基本粒子群优化算法,2.3 与遗传算法的比较,智能优化计算,差异 (1)PSO有记忆,所有粒子都保存较优解的知识,而GA,以前的知识随着种群的改变被改变; (2)PSO中的粒子是一种单向共享信息机制。而GA中的染色体之间相互共享信息,使得整个种群都向最优区域移动; (3)GA需要编码和遗传操作,而PSO没有交叉和变异操作,粒子只是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。,2 基本粒子群优化算法,2.3 与遗传算法的比较,智能优化计算,用途 基本PSO是用来解决连续问题优化的,离散二进制PSO用来解决组合优化问题。运动方程不同 粒子的位置只有(0,1)两种状态。速度值越大,则粒子位置取1的可能性越大,反之越小。,3 改进粒子群优化算法,3.1 离散二进制PSO,智能优化计算,思路 在考虑实际优化问题时,往往希望先采用全局搜索,使搜索空间快速收敛于某一区域,然后采用局部精细搜索以获得高精度的解。 研究发现,较大的 w 值有利于跳出局部极小点,而 较小的 w 值有利于算法收敛,因此提出了自适应调 整的策略,即随着迭代的进行,线性地减小 w 的 值。,3 改进粒子群优化算法,3.2 惯性权重模型,智能优化计算,变化的惯性权重 wmax、wmin分别是w的最大值和最小值;iter、itermax分别是当前迭代次数和最大迭代次数。,3 改进粒子群优化算法,3.2 惯性权重模型,智能优化计算,提出 1999年Clerc对算法的研究证明,采用收敛因子能 够确保算法的收敛。收敛因子模型 通常将设为4.1,经计算k为0.729。,3 改进粒子群优化算法,3.3 收敛因子模型,34,每个微粒的行为受到邻域微粒的影响,该邻域可以看做微粒群拓扑中的一个子区域。微粒群拓扑中所有子区域通过一定方式相互关联,共同对问题空间进行协同搜索。,全局版PSO:每个微粒受整个微粒群所发现最好位置的影响, 即每个微粒的邻域是整个微粒群; 局部版PSO:每个微粒受所定义的局部邻域中微粒的影响,而 微粒的邻域由拓扑图中每条边上距离它最近的微粒组成。,常用的两类PSO算法:,智能优化计算,3 改进粒子群优化算法,3.4微粒群拓扑结构,35,2022/11/19,几种拓扑结构:,全连接拓扑(all),环形拓扑(ring),Von Neumann 拓扑,星状拓扑(star),锥形拓扑(pyramid),四聚类拓扑(clusters),全连接拓扑为全局拓扑,其余都为邻域规模不同的局部拓扑。部分图来自 Mendes 和Kennedy(2004).,36,我们应该选择那种拓扑结构?,全连接拓扑信息传输速度快,相应地,PSO算法收敛速度快, 但是易于早熟收敛;环形拓扑信息传输速度最慢,相应地, PSO算法收敛速度慢,但是微粒有更多的机会发现最优解。,Kennedy(1999)指出:在处理简单问题时,采用较小邻域的PSO 算法性能较好;在处理复杂问题时,采用较大邻域的PSO算法性 能较好。,Mendes和Kennedy(2002)在对比不同拓扑结构时发现:Von Neumann拓扑优于其它拓扑。,Suganthan (1999),在PSO算法初期采用局部版PSO, 后期采用 全局版PSO; Hu和Eberhart (2002), 提出了动态拓扑结构的概念。每次迭代时 选择与当前微粒最近的m个微粒作为它的新邻域。,37,基于距离的拓扑结构基于距离的拓扑结构是在每次迭代时,计算一个粒子与种群中其他粒子之间的距离,然后根据这些距离来确定该粒子的邻域构成。一种动态邻域拓扑结构:在搜索开始的时候,粒子的邻域只有其自己,即将个体最优解作为邻域最优解,然后随着迭代次数的增加,逐渐增大邻域,直至最后将群体中所有粒子作为自己的邻域成员。这样使初始迭代时可以有较好的探索性能,而在迭代后期可以有较好的开发性能。,智能优化计算,3 改进粒子群优化算法,3.4微粒群拓扑结构,38,39,学习因子c1和c2同步时变,四.PSO的改进与变形,40,面对复杂优化问题, PSO在优化速度上显得“力不从心”。,为求得满意的优化结果,常需要计算相当多次的函数值; 对于一些实际问题,计算单个函数值就可能需要付出昂贵代价。,智能优化计算,3 改进粒子群优化算法,3.5 并行粒子群算法,41,2022/11/19,主从式模式,又称全局式PSO,主处理器:执行微粒全局最优点的选择、微粒位置更新等算子;从处理器:并行计算多个微粒的函数值。,算法每次迭代时,主处理器分配新生微粒到各从处理器;从处理器计算所接受微粒的函数值, 并将其返回给主处理器;主处理器利用从处理器返回的微粒 函数值,首先更新微粒的个体最优 点和全局最优点,接着,更新微粒 的速度和位置。返回。,缺点:由于未对PSO算法框架进行改动,所以该模式存在主从节点负荷忙闲 不均衡的问题,42,2022/11/19,细粒度模式,又称扩散式PSO,赋予每个微粒一个处理器。对每个微粒,微粒全局最优点的选择和微粒位置更新皆在其所处处理器及其邻域(红色图标)中进行。,该模型可以最大限度的发挥算法的并行潜力但算法的实现对处理器数量要求很高,其应用范围受到了很大限制。,优缺点:,43,2022/11/19,粗粒度模式,又称迁移式PSO,将随机生成的初始种群依处理器个数分割成若干个子种群,各 个子种群在不同的处理器上并行进化。 每经过一定进化代数,各子群间交换若干最优信息。,该模型不仅通信代价较小, 而且非常适合在通信带宽较低的集群上运行, 是适应性强且应用范围广的并行模型。可以提高种群多样性,防止未成熟收敛的发生。,优点:,简洁微粒群优化算法是Kennedy在2003年提出的。 删除了传统的微粒速度更新公式。 利用一个基于微粒全局最优点和个体最优点的高斯采样公 式,更新微粒位置:,如果固定 和 不变, PSO将以中心在 和 之间的钟形分布对搜索空间进行采样。,智能优化计算,3 改进粒子群优化算法,3.6 简洁PSO (Bare Bones PSO),45,先前微粒更新公式:,令,,得,由上式可见,微粒趋向于收敛到一个确定点,,该点是微粒,和全局最优点,的加权和。,个体最优点,智能优化计算,3 改进粒子群优化算法,3.6全息PSO (Fully Informed PSO),46,2022/11/19,进一步,可把 扩展为关于多个邻域微粒信息的加权和:,其中,NB为当前微粒的邻域, 为NB中第k个微粒的个体最优点。,如果|NB|=2, 和 ,那么上式退化为传统PSO。,除 和 之外,上式允许我们自由利用更多的邻域信息。,47,2022/11/19,其它,本态性PSO算法(Essential particle swarm) (Kennedy, 2006),部落PSO (Tribes particle swarm) (Clerc, 2006),自适应地调整微粒群的规模,因此不需要人为设置。,自适应PSO (Adaptive PSO) (Zhan 等, 2009),把PSO的整个搜索过程划分为全局探索、局部开发、收敛和跳离等4个进化状态。根据状态的不同,动态调整惯性权重和学习因子等参数。,小生境PSO (Niche PSO) (Brits 等, 2007),把种群划分为若干子种群,每个子种群代表一个不同的解或小生境。,48,测试函数,Schaffer,Griewank,Ackley,Rastrigin,智能优化计算,主要研究方向 主要集中于对算法结构和性能的改善方面,包括:参数设置、粒子多样性、种群结构和算法的融合。发展方向 目前大部分成果都是通过大量试验获得的,缺少对算法机理的研究,对PSO中的参数分析没有实质性的认识,还处于试验分析阶段。,3 改进粒子群优化算法,3.7 研究现状,智能优化计算,交换子和交换序 设n个节点的TSP问题的解序列为s=(ai),i=1n。定义交换子SO(i1,i2)为交换解S中的点ai1和ai2,则S=S+SO(i1,i2)为解S经算子SO(i1,i2)操作后的新解。 一个或多个交换子的有序队列就是交换序,记作SS,SS=(SO1,SO2,SON)。其中,SO1,SON等是交换子,之间的顺序是有意义的, 意味着所有的交换子依次作用于某解上。,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,符号的定义 若干个交换序可以合并成一个新的交换序,定义 为两个交换序的合并算子。 设两个交换序SS1和SS2按先后顺序作用于解S上,得到新解S。假设另外有一个交换序SS作用于同一解S上,能够得到形同的解S,可定义,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,符号的定义 和 属于同一等价集,在交换序等价集中,拥有最少交换子的交换序称为该等价集的基本交换序。,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,解决TSP问题的速度算式定义 、为0,1上的随机数。 vid表示交换序,xid表示路径序列(解)。,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,算法流程 1. 初始化粒子群,给每个粒子一个初始解(xid)和随机的交换序(vid); 2. 如果满足结束条件,转步骤5; 3. 根据粒子当前位置xid计算下一新解xid; 4. 如果整个群体找到一个更好的解,更新Pgd,转步骤2; 5. 显示结果。,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,算法流程 3. 根据粒子当前位置xid计算下一新解xid: 1)计算A=pid-xid,A是一个基本交换序,表示A作用于xid得到pid; 2)计算B=pgd-xid,B也是一个基本交换序; 3)更新速度 ,并将其转换为一个基本交换序; 4)更新解 ; 5)如果找到一个更好得解,更新pid。,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果 =0.25 =0.25 迭代次数=200 粒子数=80,4 粒子群优化算法的应用,4.1 求解TSP问题,10城市TSP问题(d*=2.691)0.4 0.4439; 0.2439 0.1463; 0.1707 0.2293; 0.2293 0.761;0.5171 0.9414;0.8732 0.6536; 0.6878 0.5219; 0.8488 0.3609;0.6683 0.2536; 0.6195 0.2634,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,运行结果,4 粒子群优化算法的应用,4.1 求解TSP问题,智能优化计算,4 粒子群优化算法的应用,4.1 基于微粒群优化的多机器人协同搜索,65,研究背景,机器人能够代替人从事恶劣、危险环境下的工作。,对于一个包含诸多危险或者人根本无法到达的区域,利用机器人进行搜索是行之有效的。,设计一个带有若干传感器的智能机器人是非常昂贵的;利用一个简单机器人群进行搜索不仅代价小,而且鲁棒性好。,受害者救援 行星探测 有害气体或放射物寻源 排雷、救火等,66,2022/11/19,问题描述,不失一般性,考虑如下问题:,环境:一个位置未知的危险源(如放射源),M个障碍物和N个机器人。目标:尽快找到危险源的位置。,:机器人 :放射源,67,基于PSO的多机器人搜索算法 -Pugh and Martinoli, 2007,建立PSO中微粒和多机器人系统中机器人之间1-1匹配关系。 机器人之间可以相互通信,并且,通过GPS或者一些全局定 位装置机器人知道自己的全局坐标; 那么,机器人可由基本PSO公式来确定他们所需的移动速度。,思想:,然而,PSO和多机器人搜索之间仍存在一些关键差异,需要对算法进行修改:,离散对连续时间 移动限制 函数评价 机器人相互碰撞 机器人的邻域,68,A. 离散对连续时间,问题:PSO中每个微粒位置的更新过程是离散的;而现实中机器人 的移动过程是连续的。,方案:在适当速度下让机器人朝着希望位置连续移动固定时间段; 上述步骤完成后,算法再进行下一次迭代。,为达到微粒之间的同步迭代,该方法需要各机器人并行移动。,B. 机器人相互碰撞,为防止机器人之间发生碰撞,采用Braitenberg 避障法,使机器人转向并远离可能的碰撞。,问题:,PSO中微粒被假设为没有大小和质量的点,这使得微粒可以 无限制的相互靠近而无碰撞。 现实中机器人具有一定体积,因此,他们是不可能充分靠近的。,方案:,69,C. 移动限制,PSO中微粒具有不受限制的加速度和速度。 现实中机器人的移动速度是有限的,并且,一个机 器人需要改变运动方向时,必须花费一定时间旋转 到新的方向。,问题:,每次更新机器人位置时,可以通过设置较大的时间间隔解决机器人的速度限制问题;更新完微粒位置后,可以分配给机器人一定时间使其转向新的运动方向,方案:,70,2022/11/19,D. 函数评价,假设每个机器人具备一个传感器,可以探测目标信号的强度。该强度值如下:,其中, 为信号源的能量,d 为机器人与目标之间距离, 为高斯噪声。,我们以所探测到目标信号的强度作为PSO算法的评价函数。机器人所探测到目标信号的强度越大,它所对应微粒的适应值越大。,71,2022/11/19,E. 机器人的邻域,PSO要求邻域中所有微粒,不论该微粒位于搜索空间 中任意地方,共享所得目标信息。 现实中机器人之间通信的范围和能力是有限的。,问题:,方案:,利用机器人在搜索空间上的相近程度,定义微粒的邻 域结构是合理的。 定义一个微粒(机器人)的邻域为所有位于它的最大通 信半径 r 之内的微粒(机器人)。,由于机器人在不断移动,因此,它的领域是动态的:在每次迭代时机器人的邻域可能随之变化。,72,气味寻源仿真结果,机器人群,危险源,智能优化计算,神经网络的训练 主要包含3个方面:连接权重、网络拓扑结构及传 递函数、学习算法。 每个粒子包含神经网络的所有参数,通过迭代来优 化这些参数,从而达到训练的目的。 与BP算法相比,使用PSO训练神经网络的优点在于 不使用梯度信息,可使用一些不可微的传递函数。 多数情况下其训练结果优于BP算法,而且训练速 度非常快。,4 粒子群优化算法的应用,4.3 其它应用,智能优化计算,参数优化 模糊控制器的设计 机器人路径规划 信号处理和模式识别等问题组合优化 背包问题 目标分配问题 作业调度问题,4 粒子群优化算法的应用,4.2 其它应用,智能优化计算,其他应用 多目标优化 自动目标检测 生物信号识别 决策调度 系统辨识 游戏训练,4 粒子群优化算法的应用,4.2 其它应用,智能优化计算,共同特点 基于概率计算的随机搜索进化算法,在结构、研究内容、方法以及步骤上有较大的相似性;存在的问题 (1)数学理论基础相对薄弱; (2)参数设置没有确切的理论依据,对具体问题和应用环境的依赖性大;,5 群智能优化的特点与不足,智能优化计算,存在的问题 (3)比较性研究不足,缺乏用于性能评估的标准测试集; (4)不具备绝对的可信性,存在应用风险;进一步的工作 (1)进一步研究真实群居动物的行为特征; (2)进一步研究算法的收敛性;,5 群智能优化的特点与不足,智能优化计算,存在的问题 (3)进一步提高收敛速度,从而解决大规模优化问题; (4)进一步研究各种参数设置问题; (5)研究群智能的并行算法; (6)进一步研究各算法的适用范围; (7)研究与其它算法的混合技术。,5 群智能优化的特点与不足,智能优化计算,Pan Quan-Ke, Tasgetiren MF, Liang YC. A discrete particle swarm optimization algorithm for the no-wait flowshop scheduling problem J. Computers & Operations Research, 2008, 35(9):2807-2839. 2008-09-01Pan Quan-Ke, Wang Ling, Tasgetirend MF, Zhao Bao-Hua. A hybrid discrete particle swarm optimization algorithm for the no-wait flow shop scheduling problem with makespan criterion J. International Journal of Advanced Manufacturing Technology, 2008, 38(3-4):337-347.Liang J. J, Pan Quan-Ke ,Chen Tiejun. Solving the Blocking Flow Shop Scheduling problem by a Dynamic Multi-swarm Particle Swarm Optimizer. International Journal of Advanced Manufacturing Technology, 2011, 55:755-762.Pan Quan-Ke, Wang Ling, Qian Bin. A novel multi-objective particle swarm optimization algorithm for no-wait flow shop scheduling problems J. Proceedings of the Institution of Mechanical Engineers, Part B, Journal of Engineering Manufacture, 2008,222(4):519-539. Liu Hongcheng, Gao Liang, Pan Quan-ke. A hybrid particle swarm optimization with estimation of distribution algorithm for solving permutation flowshop scheduling problem. Expert Systems With Applications, 2011, 38:4348-4360. Zhao S. Z., Suganthan P N, Pan Quan-Ke, Tasgetiren MF. Dynamic Multi-Swarm Particle Swarm Optimizer with Harmony Search. Expert Systems With Applications, 2011, 38(4):3735-3742.,我们的部分相关工作,