模糊神经网络控制与自适应神经网络.ppt
第7章 模糊神经网络控制与自适应神经网络,智能控制基础,7.1 模糊神经网络控制,7.2 基于神经元网络的自适应控制,7.3*自适应神经网络结构学习,目录,7.1.1 神经网络与模糊控制系统,7.1.2 模糊神经网络的学习算法,7.1 模糊神经网络控制,模糊神经网络理论的出发点,模糊控制系统的隶属度函数或控制规则的设计方法存在很大的主观性。利用神经网络的学习功能来优化模糊控制规则和相应的隶属度函数、将一些专家知识预先分布到神经网络中去是提出模糊神经网络理论的两个基本出发点。,模糊神经网络结构图,结构说明,第一层节点为输入节点,用来表示语言变量;输出层的每个输出变量有两个语言节点,一个用于训练时期望输出信号的馈入,另一个表示模糊神经网络推理控制的输出信号节点;第二层和第四层的节点称为项节点,用来表示相应语言变量语言值的隶属度函数。第三层节点称为规则节点,用来实现模糊逻辑推理。其中第三、四层节点间的连接系数定义规则节点的结论部、第二、三层节点间的连接系数定义规则节点的条件部。,第一层,这一层的节点只是将输入变量值直接传送到下一层。所以,且输入变量与第一层节点之间的连接系数wji(1)=1。,第二层,实现语言值的隶属度函数变换,可选取钟型函数 其中:mji和ji分别表示第i个输入语言变量Xi的第j个语言值隶属度函数的中心值和宽度。可抽象看作第一、二层神经元节点之间的连接系数wji(2)。,第三层,完成模糊逻辑推理条件部的匹配工作。由最大、最小推理规则可知,规则节点实现的功能是模糊“与”运算。fj(3)=min(u1(3),u2(3),.,up(3),aj(3)=fj(3)且第二层节点与第三层节点之间的连接系数wji(3)=1,第四层,有两种模式从上到下的传输模式 时,与第二层相同,实现模糊化的功能。从下到上的传输模式中,实现的是模糊逻辑推理运算。根据最大、最小推理规则,是模糊“或”运算:fj(4)=max(u1(4),u2(4),.,up(4),aj(4)=fj(4)且第三、四层节点之间的连接系数wji(4)=1,第五层,有两种模式从上到下的信号传输方式,同第一层。从下到上是精确化计算,如果采用重心法,有则第四层节点与第五层节点之间的连接系数wji(5)可以看作是mji(5)ji(5)。,7.1.1 神经网络与模糊控制系统,7.1.2 模糊神经网络的学习算法,7.1 模糊神经网络控制,混合学习算法,第一阶段,使用自组织学习方法进行各语言变量语言值隶属度函数的初步定位以及尽量发掘模糊控制规则的存在性(即可以通过自组织学习删除部分不可能出现的规则)在第二阶段,利用有导学习方法来改进和优化期望输出的各语言值隶属度函数。,1.自组织学习阶段,问题描述:给定一组输入样本数据xi(t),i=1,2,.,n、期望的输出值yi(t),i=1,2,.,m、模糊分区T(x)和 T(y)以及期望的隶属度函数类型(即三角型、钟型等)。学习的目的是找到隶属度函数的参数和系统实际存在的模糊逻辑控制规则。,隶属度函数参数的获取,中心值mi的估计:Kohonen自组织映射法宽度值i是与重叠参数r以及中心点mi邻域内分布函数值相关。,Kohonen自组织映射法,一种自组织学习。经过一段时间的学习后,其权值的分布可以近似地看作输入随机样本的概率密度分布。学习过程是一个Winner-take-all的过程,具体如下:,mcloest(t+1)=mcloest(t)+(t)x(t)-mcloest(t)mi(t+1)=mi(t)当 mi(t)mcloest(t),k=T(x)表示语言变量x语言值的数目,宽度i的计算,通过求下列目标函数的极小值来获取,即:其中 r为重叠参数。也可以采用一阶最近邻域法近似:,推理规则的确定,即确定第三层规则节点和第四层输出语言值节点之间的连接关系。采用竞争学习获得记o(3)i(t)为规则节点的激励强度、o(4)i(t)为第四层输出语言值节点输出,则,规则删除,仅保留规则节点与同一输出语言变量的所有语言值节点的连接系数最大的那个连接关系,将其余的连接关系删除。当某一规则节点与某一输出语言变量所有语言值节点之间的连接系数都非常小时,则所有的连接关系都可以删除。如果某一规则节点与第四层中的所有节点的连接系数都很少而被删除的话,则该规则节点对输出节点不产生任何影响。因此,该规则节点可以删除。,规则合并,合并的条件该组节点具有完全相同的结论部(如图7-2中输出变量yi中的第二个语言值节点);在该组规则节点中某些条件部是相同的(如图7-2中输入变量x0中的第一个语言值节点的输出与该组规则节点全部相连);该组规则节点的其它条件输入项包含了所有其它输入语言变量某一语言值节点的输出。,图7-2:规则节点合并示例,2.有导师学习阶段,可采用BP学习,第五层,反向传播到上一层的广义误差(5)为,第四层,没有任何参数进行更新。唯一需要做的是实现误差的反向传播计算。,第三层,与第四层相似 如果输出语言变量有m个,则,第二层,qk(3)=k(3)当aj(2)是第k个规则节点输入值中的最小值时;qk(3)=0 其它情况下。,第二层学习公式,整个学习流程,7.1 模糊神经网络控制,7.2 基于神经元网络的自适应控制,7.3*自适应神经网络结构学习,目录,基于神经元网络的自适应控制,神经网络控制器完全满足自适应控制的要素在线、实时地了解对象;有一个可调节环节;能使系统性能达到指标要求和最优。常规的神经网络控制器本身也具有一定的自适应能力。,设计思想,与传统的自适应控制器一样,有两种不同的设计途径:,7.2.1 神经网络的模型参考自适应控制,7.2.2 神经网络的自校正控制,7.2 基于神经元网络的自适应控制,模型参考自适应控制,通过选择一个适当的参考模型和由稳定性理论设计的自适应算法,并利用参考模型的输出与实际系统输出之间的误差信号,由一套自适应算法计算出当前的控制量去控制系统达到自适应控制的目的。在实时性方面都没有重大进展。,控制策略,如果被控系统y(k+1)=f(y(k),y(k-1),u(k-1)+g(u(k)参考系统:ym(k+1)=a1ym(k)+a2ym(k-1)+r(k)则控制输入可取:,基于神经网络的模型参考自适应控制结构,例7-1,非线性控制对象为 参考系统的模型为:,控制策略,则控制系统的误差方程为 其中上述控制可渐渐稳定。,离线辨识的控制效果,u(k)=-Ni(y(k),y(k-1)+0.6y(k)+0.2y(k-1)+r(k)取r(k)=sin(2k/25),在线辨识后的控制效果,确定导师信号 tj(k+1)=yp(k+1)-u(k),复杂情况,对于y(k+1)=f(y(k),y(k-1),u(k-1)+g(u(k)可得如果 存在,可用神经网络逼近之。如不存在,可采用动态BP学习算法。,动态BP学习算法,设网络模型已离线精确获得。训练控制网络,使下列标准最小,结构图,7.2.1 神经网络的模型参考自适应控制,7.2.2 神经网络的自校正控制,7.2 基于神经元网络的自适应控制,自校正控制,如果系统的环境和模型中的参数已知,那么可以采用适当的设计方法来获取某种意义下的最优控制器。如果系统的参数未知,则可用参数在线估计来代替未知的真实参数值。因此,系统辨识和控制器在线调节是自校正控制器设计的关键。,举例1,被控系统:y(k+1)=ay(k)+bu(k)期望系统特性 y(k+1)=cy(k)+dr(k)控制策略:其中a、b未知时需估计。,举例2,被控系统:y(k+1)=f(y(k)+g(y(k)u(k)期望输出:r(k+1)神经网络逼近:控制策略:,BP学习算法,指标函数 学习规则,