神经网络控制.ppt
《神经网络控制.ppt》由会员分享,可在线阅读,更多相关《神经网络控制.ppt(158页珍藏版)》请在三一办公上搜索。
1、第六章 神经网络控制,神经网络(neural networks,NN),生物神经网络(natural neural network,NNN):由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的错综复杂的神经网络,其中最重要的是脑神经系统。人工神经网络(artificial neural networks,ANN):模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。,神经网络方法:隐式的知识表示方法,人工神经网络:由许多处理单元,又称神经元,按照一定的拓扑结构相互连接而成的一种具有并行计算能力的网络系统。特点:神经网络系统以大规模模拟并行处理
2、为主,而不以串行离散数学符号处理为基础;神经网络系统具有较强的鲁棒性和容错性,能够进行联想、概括、类比和推广,任何局部的损伤不会影响整体结果;神经网络系统具有较强的自学习能力,系统可以通过不断的学习,不断地补充和完善自己的知识,这是传统的人工智能专家系统所没有的能力。,人工神经网络的定义,神经网络的基本特征与功能,结构特征:并行式处理分布式存储容错性,能力特征:自学习自组织自适应性,神经网络的基本特征与功能,联想记忆功能,非线性映射功能,神经网络的基本特征与功能,分类与识别功能,神经网络的基本特征与功能,优化计算功能,神经网络的基本特征与功能,知识处理功能,神经网络的基本特征与功能,发展历史,
3、探索时期(开始于20世纪40年代):,1943年,麦克劳(W.S.McCullocn)和匹茨(W.A.Pitts)首次提出一个神经网络模型MP模型。1949年,赫布(D.O.Hebb)提出改变神经元连接强度的 Hebb学习规则。,发展历史,1958年,罗森布拉特(F.Rosenblatt)提出感知器模型(perceptron)。1959年,威德罗(B.Widrow)等提出自适应线性元件(adaline)网络,通过训练后可用于抵消通信中的回波和噪声。1960年,他和 M.Hoff 提出LMS(Least Mean Square 最小方差)算法的学习规则。,第一次热潮时期:20世纪50年代末 20
4、世纪60年代初,发展历史,1969年,明斯基(M.Minsky)等在Perceptron中对感知器功能得出悲观结论。1972年,T.Kohonen 和 J.Anderson 分别提出能完成记忆的新型神经网络。1976年,S.Grossberg 在自组织神经网络方面的研究十分活跃。,低潮时期:20世纪60年代末 20世纪70年代,发展历史,第二次热潮时期:20世纪80年代至今,1982年1986年,霍普菲尔德(J.J.Hopfield)陆续提出离散的和连续的全互连神经网络模型,并成功求解旅行商问题(TSP)。1986年,鲁姆尔哈特(Rumelhart)和麦克劳(McCellan)等在Parall
5、el Distributed Processing中提出反向传播学习算法(BP算法)。1987年6月,首届国际神经网络学术会议在美国圣地亚哥召开,成立了国际神经网络学会(INNS)。,神经网络控制的研究领域,基于神经网络的系统辨识 神经网络控制器 神经网络与其他算法(模糊逻辑、专家系统、遗传算法等)相结合 优化计算,人类大脑大约包含有1.41011个神经元,每个神经元与大约103105个其它神经元相连接,构成一个极为庞大而复杂的网络,即生物神经网络。,生物神经元及其信息处理,神经生理学和神经解剖学的研究结果表明,神经元(Neuron)是脑组织的基本单元,是人脑信息处理系统的最小单元。,生物神经
6、元及其信息处理,生物神经元在结构上由 细胞体(Cell body)树突(Dendrite)轴突(Axon)突触(Synapse)四部分组成。用来完成神经元间信息的接收、传递和处理。,生物神经元及其信息处理,信息转换发生在突触上,(输入),(输出),神经冲动,生物神经元及其信息处理,生物神经元的信息处理机理,信息的产生,神经元间信息的产生、传递和处理是一种电化学活动。,神经元状态:静息兴奋抑制,膜电位:极 化去极化超极化,生物神经元的信息处理机理,生物神经元的信息处理机理,信息的整合,空间整合:同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。,时间整合:各输入脉
7、冲抵达神经元的时间先后不一样。总的突触后膜电位为一段时间内的累积。,生物神经网络,由多个生物神经元以确定方式和拓扑结构 相互连接即形成生物神经网络。,生物神经网络的功能不是单个神经元信息 处理功能的简单叠加。,神经元之间的突触连接方式和连接强度不 同并且具有可塑性,这使神经网络在宏观 呈现出千变万化的复杂的信息处理能力。,人工神经元是生物神经元的数学抽象,人工神经元,神经元通过信息传递进行工作,它们产生或接收由输出所组成的信息。,McCulloch-Pitts 模型(1943年),人工神经元,McCulloch-Pitts 神经元的非线性概念:,y 是神经元的输出,x 是输入矢量,w 是突触的
8、权重矢量。如:,sigmoid 神经元Gaussian 神经元,人工神经网络,人工神经网络包含有许多个人工神经元,这些人工神经元连接在一起构成一种特殊的网络结构。神经网络的目标是将输入转化为有意义的输出。,MP模型,MP神经元模型,其他形式的作用函数,(a)=1,(b)=2,2阶跃函数,神经网络的数理模型,基本运算可归结为四种:积与和权值学习阈值处理非线性函数处理神经网络的工作方式两个阶段组成:学习期:神经元间的联接权值,可由学习规则进行调整,以使目标(准则)函数达最小。工作期:联接权值不变,由网络的输入,得到相应的输出。,知识表达,神经网络是一个储存经验知识并能够有效运用的系统;神经网络的主
9、要任务是对世界(或环境)中所内含的某种模式进行学习;知识包含两种信息:一种是已知状态,代表我们已经知道的事实,被称之为先验知识;另一种是观测(或测量),即通过某种感知手段所探知的环境信息,这些观测知识通常是包含着噪声或干扰的。,神经网络的设计过程,首先,要根据先验知识来选择一个适当的神经网络结构,然后用部分实例通过某种算法来训练网络。这个过程被称为学习过程。其次,没有用过的实例被用来对已经训练好的网络的进行测试,试验其性能。这个过程称之为测试(或泛化)过程。,学习过程,前页提到的学习过程很重要,它说明学习要包含以下顺序事件:1.神经网络被环境所激励;2.环境激励的结果是使神经网络发生变化;3.
10、由于变化对于其内在的结构的作用,使得神经网络以一种新的方式对环境进行响应。,神经网络的不同分类,按性能:连续型与离散型 确定型与随机型 静态与动态网络 按联接方式:前馈(前向)型与反馈型 按逼近特性:全局逼近型与局部逼近型 按学习方式:有导师的学习(监督学习)无导师的学习(无监督学习)再励学习(强化学习)它们都是模拟人适应环境的学习过程的一种机器学习模型,因此,具有学习能力的系统,称:学习系统(学习机)5.按工作方式:同步与异步,前馈型(前向型),反馈型,(Hopfield神经网络),同步(并行)方式:任一时刻神经网络中所有神经元同时调整状态。异步(串行)方式:任一时刻只有一个神经元调整状态,
11、而其它神经元的状态保持不变。,有导师的学习(监督学习),在学习过程中,网络根据实际输出与期望输出的比较,进行联接权系的调整,将期望输出称为导师信号。导师信号是评价学习的标准(见图)。,有导师的学习(监督学习),有导师学习的特点:1、有外部教师;2、有错误纠正机制。常用的方法有:1、最小二乘法(LMS);2、反向传播算法(BP)。运行方式:1、离线;2、在线。,无导师的学习(无监督、或称自组织),无导师信号提供给网络,网络能根据其特有的结构和学习规则,进行联接权系的调整,此时,网络的学习评价标准隐含 于其内部(见图)。,无导师的学习(无监督、或称自组织),无导师学习的特点:1、没有外部教师或监督
12、机制;2、使用竞争学习方式;3、数据内部所具有的特性(苹果和梨子)。,再励学习(强化学习),把学习看为试探评价过程,学习机选择一动作作用于环境,环境的状态改变,并产生再励信号反馈至学习机,学习机依据再励信号与环境当前的状态,再选择下一动作作用于环境,选择的原则是使受到奖励的可能性增大(见图)。,re,学习修改权重,对于神经网络来说,学习的过程就是修改其连接突触的权重wkj的过程。令wkj为n时刻的突触权重,则n时刻权重的调整值wkj是突触权重wkj(n)与一个修正值之和:通常,wkj(0)可以随机设置。,误差调整学习,神经元k在n时刻的输出误差为:误差之和为:瞬时值:,实际响应,期望响应,统计
13、期望,调整 学习率,0这个学习过程就类似于一个闭环反馈过程。学习过程的稳定性取决于学习率的选择:小的学习率可以使得系统收敛于一个稳定的解;大的学习率可以加速学习的过程。,误差调整学习,Hebbian学习,这是所有学习规则中最有名的一个,是神经心理学家Heb(1949)提出的:这个强调的是输入输出信号之间的联系。它对神经元的修改强调输入激励下大的输出信号。,竞争学习,对神经元k来说,输入样本x的网络输出必须是最大,才能成为赢家。获胜神经元得到全部的输出值,也被称为“winner-takes-all”规则。,Boltzmann学习,应用随机学习算法(Boltzmann分布),Hinton and
14、Sejnowski,1986提出“模拟退火算法”。神经元组成一个回归结构,以二进位方法进行运作。这个机制由一个能量函数来描述 这里,si 是神经元i的状态。i j 表示该机制不允许神经元自反馈。,该机制运作如下:在学习过程中的某步,随机选择一个神经元,比如神经元 j;计算在温度T的前提下,神经元 j 从状态 sj 转到-sj 的概率 这里,Ei 是能量变换;T是伪温度,不是物理学意义上的温度。,Boltzmann学习,感知器,单层感知器,单层感知器,感知器的功能,w1jx1+w2jx2-Tj=0,学习算法步骤,学习算法步骤,根据某样本训练时,均方差随训练次数的收敛情况,例子:,例子:与非门逻辑
15、与非门属于线性可分问题。以下方程可以将超平面分为两个决定域:,x1 x1 y 0 0 1 0 1 1 1 0 1 1 1 0,x2,单层感知器特点,用于两类模式分类时,相当于在高维样本空间中,用一个超平面将两类样本分开。已证明:若输入的两类模式是线性可分集合(指存在一个超平面能将其分开),则算法一定收敛。局限性:若输入模式为线性不可分集合,网络的学习算法不收敛,不能进行正确分类。,【例】线性可分集合,(2)三维空间上的两类模式,见表。,(3)可引伸到n3维空间上的线性可分集合,一定可找到一超平面,将输入模式分为两类。由n输入/单输出的单层感知器实现。,【例】线性不可分集合。,二维平面上的两类模
16、式异或(XOR)问题,见表。二维平面中不存在一条直线,将输入模式分为两类,此输入模式称线性不可分集合,见图。可见:单层感知器不能解决异或问题。,多层感知器,三层感知器解决异或(XOR)问题,三层感知器可识别任一凸多边形或无界的凸区域。更多层感知器网络,可识别更为复杂的图形。,多层前馈网络与BP学习算法,多层前馈网络的反向传播(BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。网络结构见图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用BP学习算法,所以常称
17、BP神经网络。,BP学习算法,已知网络的输入/输出样本,即导师信号。BP学习算法由正向传播和反向传播组成:正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。反向传播是将误差(样本输出与网络输出之差)按原联接通路反向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。,正向传播,反向传播,BP神经网络,正向传播计算,正向计算输出(Sigmoid函数),S型函数,这里,输出的函数形式为:容易求得,,多层感知器的权值学习,给定一个网络,设定隐层单元数和连接的结构;用梯度下降法最小化网络输出值与目标值的平方误差。,误差准则,将网络误差E定义
18、为所有网络单元输出误差的总和:这里,d 是训练样本,k 为输出单元。,反向传播计算,每个训练样本对都是 形式,这里x 是网络输入矢量,t 是网络的期望输出矢量。网络其它参数如下:h 是学习率;nin 是输入层单元数;nhidden 是隐层单元数;nout 是输出层单元数。网络结构如图:,反向传播的推导,按照梯度下降法,对每个训练样本d,权值 wji 由 Dwji 进行修改这里 Ed 是训练样本 d的总误差outputs 是网络输出单元集合,反向传播的推导,对于单个神经元来说:,反向传播的推导,通过求偏导可得:权值调整可分以下两种情况:,由输出单元或隐层单元所确定,第一种:输出单元权值调整,第一
19、种:输出单元权值调整,第一种:输出单元权值调整,这样,权值的调整量为:,第二种:隐单元权值调整,第二种:隐单元权值调整,式中,不能直接计算,要通过其它间接量计算,即,第二种:隐单元权值调整,显然,对于隐含层单元来说,权值调整量为,学习算法步骤:,正向传播,正向传播,(3)计算网络的目标函数J设Ep为在第p组样本输入时,网络的目标函数网络的总目标函数:作为对网络学习状况的评价。(4)若 则算法结束;否则,转(5)。,反向传播,(5)反向传播计算由输出层按梯度下降法反向计算,逐层调整权值若i为输出节点,即i=k若i不是输出节点,即,BP学习算法的程序框图,1.特点,BP网络:多层前向网络(输入层、
20、隐层、输出层)。连接权值:通过Delta学习算法进行修正。神经元传输函数:S形函数。学习算法:正向传播、反向传播。层与层的连接是单向的,信息的传播是双向的。,2.BP网络的主要优缺点,很好的逼近特性。具有较强的泛化能力。具有较好的容错性。,优点,收敛速度慢。局部极值。难以确定隐层和隐层结点的数目。,缺点,有关的几个问题,(5)改进的BP算法 梯度下降法的不足,是BP算法收敛速度慢的原因,有改进的BP算法克服其不足,如:,(7)泛化能力泛化能力(综合能力、概括能力):用较少的样本进行训练,使网络能在给定的区域内达到要求的精度。没有泛化能力的网络无使用价值。BP网络,泛化能力与样本、结构、初始权值
21、等有关。为得到较好的泛化能力,除了要有训练样本集外,还需测试集。从图可见,随着训练次数的增加,训练集的J(t)减少,测试集的J1(t)可能不减小或增大,说明泛化能力减弱。因此,测试集J1的极小点所对应的训练权值,是网络具有较好的泛化能力的权值。,BP网络训练实例,BP神经网络在模式识别中的应用,模式识别研究用计算机模拟生物、人的感知,对模式信息,如图像、文字、语音等,进行识别和分类。传统人工智能的研究部分地显示了人脑的归纳、推理等智能。但是,对于人类底层的智能,如视觉、听觉、触觉等方面,现代计算机系统的信息处理能力还不如一个幼儿园的孩子。神经网络模型模拟了人脑神经系统的特点:处理单元的广泛连接
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 控制

链接地址:https://www.31ppt.com/p-6190626.html