欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    智能控制第3章人工神经元网络控制论-网络模型.ppt

    • 资源ID:6582748       资源大小:1.21MB        全文页数:102页
    • 资源格式: PPT        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    智能控制第3章人工神经元网络控制论-网络模型.ppt

    第3章人工神经元网络控制论 网络模型,智能控制基础,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3.1 引言,人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。,发展历史,1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。1944年Hebb提出了改变神经元连接强度的Hebb规则。1957年Rosenblatt首次引进了感知器概念(Perceptron)。1976年,Grossberg提出了自适应共振理论。1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。,主要内容,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.1 神经元模型,神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件。,ui 神经元的内部状态,i 阀值,xi 输入信号,j=1,2,n;wij 表示从单元uj 到单元ui 的连接权值;si外部输入信号,数学模型,通常直接假设yi=f(Neti)f为激励函数,有4种类型。,激励函数类型1,阈值型,激励函数类型2,分段线性型,激励函数类型3,Sigmoid 函数型,激励函数类型4,Tan函数型,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.2 神经网络的模型分类,1,2,3,4,网络结构图,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.3 神经网络的学习算法,a,b,学习规则,相关学习,仅仅根据连接间的激活水平改变权系数。它常用于自联想网络。最常见的学习算法是Hebb规则。表示学习步长,纠错学习,有导师学习方法,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。最常见的学习算法有规则、模拟退火学习规则。,无导师学习,学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。例如Winner-Take-All 学习规则。,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.4 神经网络的泛化能力,当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,3.2.1 网络结构,1,2,3,单一神经元,w0 为阈值,wj 决定第j个输入的突触权系数。,单层神经网络结构,x0=1,多层神经网络结构,以单隐含层网络为例:,Oj为隐含层的激励,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,3.2.2 多层传播网络的BP学习算法,基本思想单层网络的学习算法多层前向网络学习算法,1.有导师学习的基本思想,性能指标为()是一个正定的、可微的凸函数,常取,2.单层网络的学习算法,激励函数为线性函数时,可通过最小二乘法来 学习。激励函数为非线性函数时,可采用Delta规则,即梯度法,有,是学习因子,3.多层前向网络学习算法,针对多层前向网络有导师学习,网络模型,第r1个隐含层:输出层,采用梯度法:其中:定义广义误差:可得:,BP学习算法,反向误差传播,输出层时,有:隐含层时,有:,例3-1,假设对于期望的输入。网络权系数的初始值见图。试用BP算法训练此网络(本例中只给出一步迭代学习过程)。这里,取神经元激励函数:学习步长为,图315,当前输出,计算广义误差,连接权系数更新,学习流程,(1)初始化,设置学习因子0。较大时,收敛快,但易振荡。较小时,反之。最大容许误差Emax。用于判断学习是否结束。随机赋网络初始权值。一般选择比较小的随机数。,(2)学习方式,收敛性,(3)学习速率,激励函数,如用Sigmoid函数,应增大斜率,减少饱和的情况。调节学习因子增加Momentum项,例3-2:非线性函数逼近,目标函数:,学习设置,采用传统的BP学习算法激励函数都为Sigmoid函数。初始权系数阵由(0,1)之间的随机数组成。学习步长=0.09。学习样本取20点,即:校验样本取30点,即:,两种MLP模型的学习效果,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,1.快速BP算法,Fahlman在1988年首先提出当问题满足以下条件时:误差表面呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。可采取如下的更新公式,2.共轭梯度学习算法,共轭梯度算法是一种经典优化方法共轭梯度学习算法特点:使用二阶导数信息,但不计算Hessian矩阵,目标函数的二阶近似,目标函数:Taylor展开:其中:,最佳权系数求取,函数取极小值时,最佳权系数可求解获得。由最优化理论可知,解决H逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成H的逆矩阵值。,共轭方向,如果 diHdjT=0 对于所有的 ij,i,j,=1,2,.,n。则称d1,d2,.,dn是H共轭的。可见d1,d2,.,dn是线性无关的,因此可作为一组基。,最优矩阵的间接求解,记W*是极值点的权系数矢量,则有:令 Wk=Wk-1+kdk,则n次迭代后可得W*。,共轭梯度学习算法,注意到则,共轭矢量的递推求取,定义第一个矢量d1为初始点的负梯度矢量,即 d1=-g1。根据gTk+1dk=0(线性无关),可得dk+1=-gk+1+kdk k=gk+1HdkT/(dkHdkT)注意到(gk+1-gk)T=H(Wk+1-Wk)T=kHdkT 所以 k=gk+1(gk+1-gk)T/dk(gk+1-gk)T k 可通过一维步长最优搜索得到,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3.3 动态神经网络模型,动态神经网络,带时滞的多层感知器网络,Hopfield网络,回归神经网络,3.3.1 带时滞的多层感知器网络,有两种实现:无输出反馈 有输出反馈,带时滞的多层感知器网络1,图3-20 时滞神经网络结构,带时滞的多层感知器网络2,图3-21 带反馈时滞神经网络结构,3.3.2 Hopfield神经网络,具有相互连接的反馈型神经网络模型 将其定义的“能量函数”概念引入到神经网络研究中,给出了网络的稳定性判据。用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了4位A/D转换。,类型,1,2,1.二值型的Hopfield网络,全连接单层网络神经元模型,yi取值通常为0和1或-1和1,例3-4:状态转移关系,假设一个3节点的离散Hopfield神经网络,已知网络权值与阈值如图3-23(a)所示。采取随机异步更新策略,求计算状态转移关系。,状态转移图,动力学特征:能量井,能量函数能量井:能量极小状态(与网络的稳定状态一一对应)用途:联想记忆、优化,能量井设计,能量井的分布是由连接权值决定的。一是根据求解问题的要求直接计算出所需要的连接权值。这种方法为静态产生方法,一旦权值确定下来就不再改变;二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井。这种方法为动态产生方法。,(1)权值的静态设计方法:例3-6,如下图3节点DHNN模型为例要求设计的能量井为状态y1y2y3=010和111。权值和阈值可在-1,1区间取值,确定网络权值和阈值。,解,对于状态A,当系统处于稳态时,有 W12+10 W23+30 W12+W23+20 W23+W13+30,特解,W12=0.5,W13=0.4,W23=0.1,1=-0.7,2=0.2,3=-0.4.W12=-0.5,W13=0.5,W23=0.4,1=0.1,2=0.2,3=-0.7.出现了假能量井100,(2)基于学习规则的设计方法,Hebb学习规则(主要方法)学习规则,Hebb学习规则,原则为:若i与j两个神经元同时处于兴奋状态,则它们之间的连接应加强,即:.,外积规则,对于一给定的需记忆的样本向量t1,t2,.,tN,如果初始权值为0,tk的状态值为+1或-1,则其连接权系数的学习可以利用“外积规则”,即:标量形式:活跃值为1或0时:,2.网络的稳定性,定理3-2:令S=(W,)代表神经网络,W为一对称矩阵。则有:如果S工作在串行模式,W的对角元素非负(包括对角元为0的情况),则网络总是收敛于稳定状态。(即在状态空间没有极限环存在);如果S工作在并行模式时,网络总是收敛于稳定状态或Hamming距离小于2的极限环。,证明,定义能量函数为:将E(k)在Y(k)展开Talyor级数,有:其中,,不失一般性,假设阈值函数f()为符号函数sgn()。则 其中:,显然 在串行工作方式下,,例3-7:,假设神经元的阈值矢量=0,网络输出只取两值0,1。要求Hopfield网络记忆如下稳定状态,t1=(1 0 1 0)T。设采取并行更新,并对以下三种初始状态下的网络行为作出评价。y1(0)=(1 0 0 1)T,y2(0)=(1 0 0 0)T,y3(0)=(0 0 0 1)T。,步骤1:权值设计,根据得,步骤2:稳定性分析,对于y1(0)有:1,0,0,1T 0,0,0,0T 0,0,0,0T,因此 y1=0,0,0,0T,是一个稳定态。对于y2(0)有:1,0,0,0T 0,0,1,0T 1,0,0,0T,所以初始状态2不属于此Hopfield网络记忆范围。无法实现联想。对于y3(0)有:0,0,0,1T 0,1,0,0T 0,0,0,1T,也不属于此Hopfield区的记忆范围。,3.应用:联想记忆功能,必须具备两个基本条件:能够收敛于稳定状态,利用此稳态来记忆样本信息;具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。,举例:数字识别,X=x1,x2,.,xNT、X-1,1N,N=1012=120,存在的问题,假能量井现象并非任何一组样本经训练都可构成一组稳定的状态。给定一个偏离样本的初始状态,最终不一定收敛到与其Hamming距离最近的标准样本状态。各样本之间的Hamming距离分布对联想记忆功能的正确实现有重要影响。若样本之间相互正交(dH=N/2)效果最好。反之,若样本特征相近则易出现错误识别。样本数M越小,联想记忆功能出现的错误的可能性越小。仿真研究表明,取M=0.15N时,联想的正确率较高。,4.连续型的Hopfield网络,与二值型的Hopfield网络模型具有相同的拓扑结构 神经元的状态oj满足:N为网络中神经元的个数;oj 为神经元j的状态;cj 为常数且大于0;Rj 为正数;xj 为外部输入;yi 为神经元i的输出,满足 yi=f(oi)。,稳定性,引入一个能量函数E:定理3-3:若f-1 为单调递增且连续,,则沿系统轨道有:且当且仅当 时,,证明,因为且当 时,,5.优化问题的应用:TSP问题,旅行商最优路径问题(Travelling Salesman Problem,简称TSP),能量函数,设计如下能量函数:式中 A、B、C、D均为正常数。第一项表示当且仅当每一城市行只包含一个“1”时取极小值0;第二项表示当且仅当每一旅行位置只包含一个“1”时取极小值0;第三项表示当且仅当置换矩阵中“1”之和为n时取极小值0;第四项表示路径长度信息,它随着路径长度的减小而减小。,化作标准型,f呈硬限幅特性,则有其中,网络模型,算例,A=B=D=500,C=200,RakCak=1,O0=0.02微分方程的初值选为:Oak=O00+Oak 其中:O00为常数项,满足在t=0时,以利于收敛;Oak是扰动项,其取值范围为:-0.1O0Oak0.1O0,优化结果,3.3.3 回归(Recurrent)神经网络,与Hopfield神经网络非常相似。保留了部分前向传播网络的特性又具备部分Hopfield网络的动态联想记忆能力。Pineda在1987年首先将传统的BP学习算法引入到回归神经网络中来,并提出回归反向传播算法。,离散型回归神经网络(DTRNN),神经元模型:其中:,N是神经网络的输出节点数,M是输入矢量X的维数,网络结构,学习方法1,展成多层前向网络,学习方法2,迭代学习算法 梯度下降法实现,流程,权系数矩阵W初始化,置k=1;取下一组训练样本集,置 所有状态为零,所有 迭代:,

    注意事项

    本文(智能控制第3章人工神经元网络控制论-网络模型.ppt)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开