智能控制第3章人工神经元网络控制论-网络模型.ppt
《智能控制第3章人工神经元网络控制论-网络模型.ppt》由会员分享,可在线阅读,更多相关《智能控制第3章人工神经元网络控制论-网络模型.ppt(102页珍藏版)》请在三一办公上搜索。
1、第3章人工神经元网络控制论 网络模型,智能控制基础,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3.1 引言,人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。,发展历史,1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。1944年Hebb提出了改变神经元连接强度的Hebb规则。19
2、57年Rosenblatt首次引进了感知器概念(Perceptron)。1976年,Grossberg提出了自适应共振理论。1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据。1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法。,主要内容,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.1 神经元模型,神经元模型是生物神经元的抽象和模拟。可看作多输入/单输出的非线性器件。,ui 神经元的内部状态,i
3、 阀值,xi 输入信号,j=1,2,n;wij 表示从单元uj 到单元ui 的连接权值;si外部输入信号,数学模型,通常直接假设yi=f(Neti)f为激励函数,有4种类型。,激励函数类型1,阈值型,激励函数类型2,分段线性型,激励函数类型3,Sigmoid 函数型,激励函数类型4,Tan函数型,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.2 神经网络的模型分类,1,2,3,4,网络结构图,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1
4、.4 神经网络的泛化能力,3.1.3 神经网络的学习算法,a,b,学习规则,相关学习,仅仅根据连接间的激活水平改变权系数。它常用于自联想网络。最常见的学习算法是Hebb规则。表示学习步长,纠错学习,有导师学习方法,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。最常见的学习算法有规则、模拟退火学习规则。,无导师学习,学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。在这类学习规则中,关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。例如Winne
5、r-Take-All 学习规则。,3.1 引言,3.1.1 神经元模型,3.1.2 神经网络的模型分类,3.1.3 神经网络的学习算法,3.1.4 神经网络的泛化能力,3.1.4 神经网络的泛化能力,当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。,3.1 引言,3.2 前向神经网络模型,3.6 神经网络控制基础,3.7 非线性动态系统的神经网络辨识,3.8 神经网络控制的学习机制,3.9
6、 神经网络控制器的设计,3.3 动态神经网络模型,3.10 单一神经元控制法,目录,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,3.2.1 网络结构,1,2,3,单一神经元,w0 为阈值,wj 决定第j个输入的突触权系数。,单层神经网络结构,x0=1,多层神经网络结构,以单隐含层网络为例:,Oj为隐含层的激励,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2 多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,3.2.2 多层传播网络的BP学习算法,基本思想单层网络的学习算法多层前向网络学习算法,1.
7、有导师学习的基本思想,性能指标为()是一个正定的、可微的凸函数,常取,2.单层网络的学习算法,激励函数为线性函数时,可通过最小二乘法来 学习。激励函数为非线性函数时,可采用Delta规则,即梯度法,有,是学习因子,3.多层前向网络学习算法,针对多层前向网络有导师学习,网络模型,第r1个隐含层:输出层,采用梯度法:其中:定义广义误差:可得:,BP学习算法,反向误差传播,输出层时,有:隐含层时,有:,例3-1,假设对于期望的输入。网络权系数的初始值见图。试用BP算法训练此网络(本例中只给出一步迭代学习过程)。这里,取神经元激励函数:学习步长为,图315,当前输出,计算广义误差,连接权系数更新,学习
8、流程,(1)初始化,设置学习因子0。较大时,收敛快,但易振荡。较小时,反之。最大容许误差Emax。用于判断学习是否结束。随机赋网络初始权值。一般选择比较小的随机数。,(2)学习方式,收敛性,(3)学习速率,激励函数,如用Sigmoid函数,应增大斜率,减少饱和的情况。调节学习因子增加Momentum项,例3-2:非线性函数逼近,目标函数:,学习设置,采用传统的BP学习算法激励函数都为Sigmoid函数。初始权系数阵由(0,1)之间的随机数组成。学习步长=0.09。学习样本取20点,即:校验样本取30点,即:,两种MLP模型的学习效果,3.2 前向神经网络模型,3.2.1 网络结构,3.2.2
9、多层传播网络的BP学习算法,3.2.3 快速的BP改进算法,1.快速BP算法,Fahlman在1988年首先提出当问题满足以下条件时:误差表面呈抛物面、极值点附近凹面向上;某一权系数的梯度变化与其它权系数变化无关。可采取如下的更新公式,2.共轭梯度学习算法,共轭梯度算法是一种经典优化方法共轭梯度学习算法特点:使用二阶导数信息,但不计算Hessian矩阵,目标函数的二阶近似,目标函数:Taylor展开:其中:,最佳权系数求取,函数取极小值时,最佳权系数可求解获得。由最优化理论可知,解决H逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成H的逆矩阵值。,共轭方向,如果 diHdjT=0 对于所有的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 智能 控制 人工 神经元 网络 控制论 模型

链接地址:https://www.31ppt.com/p-6582748.html