欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    智能控制第七章神经控制系统文档资料.ppt

    • 资源ID:4590429       资源大小:763.50KB        全文页数:55页
    • 资源格式: PPT        下载积分:10金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要10金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    智能控制第七章神经控制系统文档资料.ppt

    第七章 神经控制系统(Neural Control System),7.1 神经网络(NN)简介,7.1.1 人工神经网络(ANN)的起源与发展,自1960年威德罗(Widrow)和霍夫(Hoff)率先把神经网络用于自动控制研究以来,对这一课题的研究艰难地取得一些进展。60年代末期至80年代中期,神经网络控制与整个神经网络研究一样,处于低潮。80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。这方面的研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。,7.1.2 用于控制的人工神经网络,人工神经网络的特性:,并行分布处理;非线性映射;通过训练进行学习;适应与集成;硬件实现.,(1)模式信息处理和模式识别;(2)最优化问题计算;(3)复杂系统控制;(4)通信。,人工神经网络的应用:,7.2 人工神经网络的模型与结构,7.2.1 生物神经元模型,神经元的主要组成部分:细胞体、轴突、树突、突触等。,从生物控制论的角度,神经元作为控制和信息处理的基本单元,具有以下几个重要功能和特点:1)动态极化原则;2)时空整合功能;3)兴奋与抑制状态;4)脉冲与电位转换;5)突触延时和不应期。,7.2.2 人工神经元模型及其特性,这三种函数都是连续和非线性的。一种二值函数可由下式表示:(7.2),一种常规的形函数可由下式表示:(7.3),双曲正切函数如下式所示:(7.4),7.2.3 人工神经网络的基本类型,1.人工神经网络的基本特性和结构,人工神经网络的结构基本上分为两类,即递归(反馈)网络和前馈网络。,基本特性,ANN分类,人工神经网络是一种具有下列特性的有向图:对于每个节点 i 存在一个状态变量xi;从节点 j 至节点 i,存在一个连接权系统数wij;对于每个节点 i,存在一个阈值 i;对于每个节点 i,定义一个变换函数:对于最一般的情况,此函数取 形式。,递归(反馈)网络:在递归网络中,多个神经元互连以组织一个互连神经网络,如图7.3所示。有些神经元的输出被反馈至同层或前层神经元。Hopfield网络,Elman网络和Jordan网络是递归网络有代表性的例子。前馈网络:前馈网络具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元间的连接,如图7.4所示。,图7.3 递归(反馈)网络图7.4 前馈(多层)网络,2.人工神经网络的主要学习算法,有师学习 有师学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。有师学习算法的例子包括Delta规则、广义Delta规则或反向传播算法BP以及LVQ算法等。,无师学习 无师学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。,强化学习 强化学习是有师学习的特例。它不需要老师给出目标输出。强化学习算法采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GA)。,7.2.4 人工神经网络的典型模型,续前表:,7.3 人工神经网络示例及其算法,人工神经网络的许多算法已在神经控制中获得广泛采用,下面对几种比较重要的网络及其算法加以简要讨论。,7.3.1 多层感知器(MLP),多层感知器是最著名的前馈网络。图7.4给出一个三层MLP,即输入层、中间(隐含)层和输出层。输入层的神经元只起到缓冲器的作用,把输入信号分配至隐含层的神经元。隐含层的每个神经元j(见图7.1)在对输入信号加权wij之后,进行求和,并计算出输出 yj作为该和的 f 函数,即(7.5)反向传播算法(BP)是一种最常采用的训练算法,另一种适于训练MLP的学习算法是遗传算法(GA)。,反向传播算法是一种最常采用的训练算法,它给出神经元i和j间连接权的变化,如下式所示:(7.6)式中,为一称为学习速率的参数,为一取决于神经元j是否为一输出神经元或隐含神经元的系数。对于输出神经元,(7.7)对于隐含神经元,(7.8)在上述两式中,表示所有输入信号对神经元j的加权总和,为神经元j的目标输出。,另一种适于训练的学习算法是遗传算法(GA),该算法以某个随机产生的染色体群体开始,并应用基因算子产生新的更为合适的群体。选择算子从现有群体选择染色体供繁殖用。交叉算子通过在随机位置切开染色体并交换切开后续位置内的成分,从两个现存的染色体产生两个新的染色体。变异算子通过随机地改变现有染色体的基因,产生新的染色体。这些算子一起模拟一个导向随机搜索方法,此方法最终能够求得神经网络的目标输出。,7.3.2 数据群处理方法(GMDH)网络,图7.6和图7.7分别表示一个数据群处理方法网络及其一个神经元的细节。每个GMDH神经元是一N-Adalilne,即为一含有非线性预处理器的自适应线性元件。训练网络包含下列过程:从输入层开始构造网络,调整每个神经元的权值,增加层数直至达到映射精度为止。,图7.6 一个受训练的GMDH网络,图7.7 一个神经元的详图,7.3.3 自适应谐振理论(ART)网络,1.ART-1版本,图7.8 一个ART-1网络,用于处理二值输入,从下图可以看出,一个ART-1网络含有两层,一个输入层和一个输出层。这两层完全互连,该连接沿着正向(自底向上)和反馈(自顶向下)两个方向进行。当ART-1网络在工作时,其训练是连续进行的,包括8个步骤。,2.ART-2版本,能够处理连续值输入。,右图给出一个学习矢量量化网络,它由三层神经元组成,即输入转换层、隐含层和输出层。该网络在输入层与隐含层间为完全连接,而在隐含层与输出层间为部分连接,每个输出神经元与隐含神经元的不同组相连接。,图7.9 学习矢量化网络,7.3.4 学习矢量量化(LVQ)网络,最简单的训练步骤如下:(1)预置参考矢量初始权值。(2)提供给网络一个训练输入模式。(3)计算输入模式与每个参考矢量间的Euclidean距离。(4)更新最接近输入模式的参考矢量(即获胜隐含神经元的参考矢量)的权值。如果获胜隐含神经元以输入模式一样的类属于连接至输出神经元的缓冲器,那么参考矢量应更接近输入模式。否则,参考矢量就离开输入模式。(5)转至(2),以某个新的训练输入模式重复本过程,直至全部训练模式被正确地分类或者满足某个终止准则为止。,7.3.5 Kohonen网络,Kohonen网络或自组织特征映射网络含有两层,一个输入缓冲层用于接收输入模式,另一为输出层。输出层的神经元一般按正则二维阵列排列,每个输出神经元连接至所有输入神经元。连接权值形成与已知输出神经元相连的参考矢量的分量。,图7.10 Kohonen网络,7.3.6 Hopfield网络,Hopfield网络是一种典型的递归网络(见图7.3)。下图表示Hopfield网络的一种方案。这种网络通常只接受二进制输入(或)以及双极性输入(+1或-1)。它含有一个单层神经元,每个神经元与所有其它神经元连接,形成递归结构。Hopfield网络的训练只有一步。,图7.11 一种Hopfield网络,7.3.7 Elman and Jordan网络,图7.12 Elman网络 图7.13 Jordan网络,图7.12和图7.13分别示出Elman网络和Jordan网络。这两种网络具有与MLP网络相似的多层结构。在这两种网络中,除了普通的隐含层外,还有一个特别的隐含层,有时称为上下文层或状态层;该层从普通隐含层(对于Elman网)或输出层(对于Jordan网)接收反馈信号。,7.3.8 小脑模型连接控制(CMAC)网络,CMAC网络可视为一种具有模糊联想记忆特性监督式(有导师)前馈神经网络。图7.14表示网络的基本模块。,图7.14 CMAC网络的基本模块,7.4 神经控制的结构方案,7.4.1 NN学习控制,图7.16给出一个NN学习控制的结构,包括一个导师(监督程序)和一个可训练的神经网络控制器(NNC)。控制器的输入对应于由人接收(收集)的传感输入信息,而用于训练的输出对应于人对系统的控制输入。,图7.16 基于神经网络的监督式控制,实现NN监督式控制的步骤如下:通过传感器和传感信息处理,调用必要的和有用的控制信息。构造神经网络,即选择NN类型、结构参数和学习算法等。训练控制器,实现输入和输出间的映射,以便进行正确的控制。,NN监督式控制已被成功应用于倒立摆小车控制系统。,7.4.2 NN直接逆控制,下图给出NN直接逆控制的两种结构方案。在图7.17()中,网络NN1和NN2具有相同的逆模型网络结构,而且采用同样的学习算法。图7.17()为NN直接逆控制的另一种结构方案,图中采用一个评价函数(EF)。,图7.17 直接逆控制,NN直接逆控制采用受控系统的一个逆模型,它与受控系统串接以便使系统在期望响应(网络输入)与受控系统输出间得到一个相同的映射。,7.4.3 NN自适应控制,NN自适应控制也分为两类,即自校正控制(STC)和模型参考自适应控制(MRAC)。STC和MRAC之间的差别在于:STC根据受控系统的正和(或)逆模型辨识结果直接调节控制器的内部参数,以期能够满足系统的给定性能指标;在MRAC中,闭环控制系统的期望性能是由一个稳定的参考模型描述的,而该模型又是由输入输出对 确定的。,1.NN自校正控制(STC),NN直接自校正控制 该控制系统由一个常规控制器和一个具有离线辨识能力的识别器组成;后者具有很高的建模精度。NN直接自校正控制的结构基本上与直接逆控制相同。,NN间接自校正控制 本控制系统由一个NN控制器和一个能够在线修正的NN识别器组成;下图表示出了NN间接STC的结构。,2.NN模型参考自适应控制,图7.18 间接自校正控制,NN直接模型参考自适应控制:,图7.19 直接模型参考自适应控制,图7.20 间接模型参考自适应控制,间接模型参考自适应控制:,7.4.4 NN内模控制,基于NN的内模控制的结构如下图所示,其中,系统模型(NN2)与实际系统并行设置。反馈信号由系统输出与模型输出间的差得到,然后由NN1(在正向控制通道上一个具有逆模型的NN控制器)进行处理;NN1控制器与系统的逆有关。,图7.21 NN内模控制,7.4.5 NN预测控制,1.NN预测控制的特点,具有预测模型、滚动优化和反馈校正等特点。,2.NN预测控制的结构,图7.22 预测控制,下图表示出了NN预测控制的一种结构方案;图中,神经网络预测器NNP为一神经网络模型,NLO为一非线性优化器。NNP预测受控对象在一定范围内的未来响应:,基于神经网络的预测控制算法步骤如下:,7.4.6 NN自适应判断控制,NN自适应判断控制是由Barto等提出的,并由Anderson发展的,它应用强化学习的机理。这种控制系统通常由两个网络组成,即自适应判断网络AJN和控制选择网络CSN,如图7.23所示。,图7.23 NN自适应判断控制,AJN的作用:通过不断的奖罚强化学习,使AJN逐渐训练为一个熟练的教师;经过学习后,根据受控系统的当前状态和外部强化反馈信号(),AJN产生一强化信号,然后提供内部强化信号,以便能够判断当前控制作用的效果。,CSN的作用:CSN相当于多层前馈神经网络控制器,它在内部强化信号的引导下进行学习。通过学习,CSN根据系统编码后的状态,选择下一个控制作用。,7.4.7 基于CAMC的控制,CMAC是由Albus开发的,是近年来获得应用的几种主要神经控制器之一。把CMAC用于控制有两种方案。,第一种方案的结构如图7.24所示。在该控制系统中,指令信号、反馈信号均用作CMAC控制器的输入。控制器输出直接送至受控装置(对象)。,图7.24 基于CMAC的控制(),图7.25 基于CAMC的控制(),第二种方案的结构如图7.25所示。在该方案中,参考输出方块在每个控制周期产生一个期望输出。该期望输出被送至CMAC模块,提供一个信号作为对固定增益常规偏差反馈控制器控制信号的补充。,7.4.8 多层NN控制,多层神经网络控制器基本上是一种前馈控制器。下图所示的是一个普通的多层神经控制系统。该系统存在两个控制作用:前馈控制和常规控制。前馈控制由神经网络实现,前馈部分的训练目标在于使期望输出与实际装置输出间的偏差为最小。现已提出多层NN控制器的三种结构:间接结构、通用结构和专用结构。,图7.26 多层控制的一般结构,1.间接学习结构,图7.27所示的间接多层NN控制结构含有两个同样的神经网络,用于训练。在本结构中,每个网络作为一个逆动态辨识器。训练的目标是要从期望响应 d 中找到一个合适的装置控制。,图7.27 间接学习结构的多层控制,2.通用学习结构,图7.28 通用学习结构,图7.28给出多层控制的通用学习结构,它使图7.27中的y为最小。该网络被训练使得装置输入与网络输出u*间的差别为最小。,3.专用学习结构,图7.29 专用学习结构,多层NN控制的专用学习结构如下图所示。当神经网络训练时,期望输出是该网络的输入。采用误差反向传播(BP)方法,经过训练使期望输出与装置的实际输出之间的差为最小。,7.4.9 分级NN控制,基于神经网络的分级控制模型如下图所示。图中,为受控装置的期望输出,为装置的控制输入,为装置的实际输出,u*和 y*为由神经网络和给出的装置计算输入与输出。该系统可视为由三部分组成。第一部分为一常规外反馈回路。第二部分是与神经网络连接的通道。系统的第三部分是神经网络,它监控期望输出和装置输入。,图7.30 分级神经网络控制器,可把分级神经网络模型控制系统分为两个子系统,即基于正向动力学辨识器的系统(见图7.31)和基于逆向动力学辨识器的系统(见图7.32),并可以单独应用它们。,图7.31 基于正向动力学辨识器的控制系统,图7.32 基于逆向动力学辨识器的控制系统,基于分级神经网络模型的控制系统具有下列特点:,该系统含有两个辨识器,一个用于辨识装置的动力学特性,另一个用于辨识装置的逆动力学特性。存在一个主反馈回路,它对训练神经网络是很重要的。当训练进行时,逆动力学部分变为主控制器。本控制的最后效果与前馈控制的效果相似。,7.5 模糊逻辑、专家系统及神经网络在控制中的集成,7.5.1 模糊神经网络原理,模糊系统与神经网络的比较:,表7.5 模糊系统与神经网络的比较,实现模糊神经网络组合的方法基本上分为两种。第一种方法在于寻求模糊推理算法与神经网络示例之间的功能映射,而第二种方法却力图找到一种从模糊推理系统到一类神经网络的结构映射。,1.FNN的概念与结构,图7.33 神经网络FNN3,定义7.1 一个正则模糊神经网络(RFNN)为一具有模糊信号和或模糊权值的神经网络,即(1)FNN1具有实数输入信号和模糊权值;(2)FNN2具有模糊集输入信号和实数权值;(3)FNN3具有模糊集输入信号和模糊权值。,定义7.2 混合模糊神经网络(HFNN)是另一类FNN,它组合模糊信号和神经网络权值,应用加和乘等操作获得神经网络输入。,设FNN3具有同图7.33一样的结构。输入神经元1和2的输入分别为模糊信号,于是隐含神经元k的输入为:,而第k个隐含神经元的输出为:,若 f 为一 S 形函数,则输出神经元的输入为:,最后输出为:,2.FNN的学习算法,模糊反向传播算法,基于FNN3的模糊反向传播算法是由Barkley开发的。,基于分割的反向传播算法,遗传算法,遗传算法能够产生一个最优的参数集合用于基于初始参数的主观选择或随机选择的模糊推理模型。,其它学习算法,模糊混沌(fuzzy chaos)以及基于其它模糊神经元的算法将是进一步研究所感兴趣的课题。,3.FNN的逼近能力,基于模糊运算和扩展原理的RFNN不可能成为通用近似器,而HFNN因无需以标准模糊运算为基础则能够成为通用近似器。,7.5.2 模糊神经控制方案,这些方案主要分为两个方面,即结构上等价于模糊系统的NN控制以及功能上等价于模糊系统的NN控制。,1.混合,本方案中,神经网络与模糊集被独立地用于系统,两者之一作为另一者的预处理器。例如,模糊集用作神经网络的监督器(导师)或判据,以便改善学习的收敛性,如图7.34所示。,图7.34 混合,2.似神经模糊集(FAM),在这种方案中,FNN采用由模糊集描述的模糊神经元。在基于知识的系统中,一个条件语句集合,规则集常常用于表示从人类专家那里提取的知识。图7.35给出一种结构。其中把输入参数聚集进模糊子空间,并由加权网络来辨识输入输出关系。,图7.35 一种神经状模糊集的结构,另一种似神经模糊系统FAM(模糊联想记忆系统)是由Kosko提出的。,3.自适应,在FNN的发展过程中,提出了一种由神经网络实现的自适应模糊逻辑控制器。该神经网络可视为从模糊系统到神经网络的一种结构映射。模糊逻辑控制器的决策过程导致一个由三类子网络构成的神经模糊网络,分别用于模式识别、模糊推理和控制综合,如图7.36所示。,图7.36 的三个子网络,另一种自适应FNN是基于自适应网络的模糊推理系统ANFIS。,4.多层,下图给出了一个用于控制与决策的五层模糊神经网络,其中,第1层由输入语言节点组成,第层为输入项节点,第层为规则节点,第层为输出项节点,第5层为输出语言节点。,图7.37 多层例子,7.6 神经控制器的设计实例,神经控制系统的设计一般应包括下列内容:,(1)建立受控对象的数学计算模型或知识表示模型。,(4)进行控制系统仿真试验,并通过试验结果改进设计。,(3)设计神经控制器,包括控制器结构、功能表示与推理。,(2)选择神经网络及其算法,进行初步辨识与训练。,神经模糊自适应控制器的设计,1.控制器结构和工作原理,它由一个普通的反馈控制器(FC)和一个神经控制器(NNC)组成,二者的输入信号之和作为实际控制量对系统进行控制,即,式中,是反馈控制器的输出;神经控制器的输出,通常可描述为,反馈控制器FC起着监控作用,在NNC训练初期,FC对系统实施启动控制,并保证闭环系统的稳定性。神经控制器NNC是一个在线学习的自适应控制器,其作用是综合系统的参考输入和跟踪误差,利用模糊推理机FIE的输出信号进行学习,不断逼近被控对象的逆动力学,使FC的输出及其变化趋于零,从而逐步取消FC的作用,实现对系统的高精度跟踪控制。,2.神经控制器及其训练,根据反馈误差学习法,网络权值的学习规则为:,为改善神经网络的学习效果,使NCC的输出变化与系统的运动特性相匹配,根据误差和误差变化,将系统的最终目标分解成若干分目标。,分目标学习误差由模糊推理机的一组模糊规则给出,分目标学习误差规则表,为实现上述模糊推理规则,必须对FIE的输入变量进行模糊化处理,即将输入变量从基本论域转化到相应的模糊论域。为此,引入FC输出变量 及其变化变量 的量化因子、,FC的实时输出信号 及其变化 经量化后的模糊变量、分别为,在控制过程中,系统根据每一采样时间FC的输出信号及其变化,有图7.44确定各模糊集的隶属度,然后利用模糊推理规则表7.6,确定图7.45中FIE输出变量 所有可能的模糊隶属集,并以重心法进行模糊判决,得到分目标学习误差:,确定分目标学习误差后,定义NNC的训练误差函数如下,神经网络在线学习模糊自适应控制的算法如下:,(1)初始化FC及NNC的结构、参数及各种训练参数。(2)在时刻,采样、,并计算系统输出偏差。(3)计算反馈控制器FC的输出信号 及其变化量。(4)根据模糊推理规则,求出NNC分目标学习误差。(5)若,修正NNC的权值,否则,继续下一步。(6)构造NNC的输入向量,并计算其 输出。(7)计算控制器输出,并送给被控对象,产生下一步输出。(8)令,对 进行移位处理,返回步骤(2),高速列车运行过程的直接模糊神经控制,1.模糊神经控制器,控制器结构,图7.49 用于列车运行过程的模糊神经控制器的结构,建立模糊关系,模糊推理,7.7 神经控制系统应用举例,2.列车运行过程的数学描述,3.模拟结果,基于提出的模糊神经控制器的列车运行过程闭环控制系统如下图所示。,图7.51 列车运行过程闭环控制系统框图,

    注意事项

    本文(智能控制第七章神经控制系统文档资料.ppt)为本站会员(sccc)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开