神经信息学课件.ppt
《神经信息学课件.ppt》由会员分享,可在线阅读,更多相关《神经信息学课件.ppt(91页珍藏版)》请在三一办公上搜索。
1、神经信息学,平行分布式理论框架史忠植shizzics.ict.ac中科院计算所,9/24/2022,1,神经信息学 平行分布式理论框架9/24/20221,目 录,1. 神经计算2. 并行分布式理论框架3. 交互与竞争神经网络4. 误差反向传播神经网络5.Hopfield神经网络,9/24/2022,2,目 录1. 神经计算9/24/20222,神经网络,一个神经网络是由简单处理元构成的规模宏大的并行分布处理器。天然具有存储经验知识和使之可用的特性。神经网络从两个方面上模拟大脑: 神经网络获取的知识是从外界环境中学习得来的。 内部神经元的连接强度,即突触权值,用于储存获取的知识。,9/24/2
2、022,3,神经网络一个神经网络是由简单处理元构成的规模宏大的并行分布处,发展历史,萌芽期(20世纪40年代) 人工神经网络的研究最早可以追溯到人类开始研究自己的智能的时期,到1949年止。 1943年,心理学家McCulloch和数学家Pitts建立起了著名的阈值加权和模型,简称为M-P模型。发表于数学生物物理学会刊Bulletin of Methematical Biophysics 949年,心理学家D. O. Hebb提出神经元之间突触联系是可变的假说Hebb学习律。,9/24/2022,4,发展历史 萌芽期(20世纪40年代)9/24/20224,发展历史,第一高潮期(1950196
3、8) 以Marvin Minsky,Frank Rosenblatt,Bernard Widrow等为代表人物,代表作是单级感知器(Perceptron)。 可用电子线路模拟。 人们乐观地认为几乎已经找到了智能的关键。许多部门都开始大批地投入此项研究,希望尽快占领制高点。,9/24/2022,5,发展历史第一高潮期(19501968)9/24/20225,发展历史,反思期(19691982) M. L. Minsky和S. Papert,Perceptron,MIT Press,1969年 异或”运算不可表示 二十世纪70年代和80年代早期的研究结果,9/24/2022,6,发展历史反思期(1
4、9691982) 9/24/20226,发展历史,第二高潮期(19831990) 1982年,J. Hopfield提出Hopfield网络用Lyapunov函数作为网络性能判定的能量函数,建立ANN稳定性的判别依据阐明了ANN与动力学的关系用非线性动力学的方法来研究ANN的特性指出信息被存放在网络中神经元的联接上,9/24/2022,7,发展历史第二高潮期(19831990) 9/24/2022,发展历史,第二高潮期(19831990) 1984年, J. Hopfield设计研制了后来被人们称为Hopfield网-Tank 电路。较好地解决了著名的TSP问题,找到了最佳解的近似解,引起了较
5、大的轰动。 1985年,UCSD的Hinton、Sejnowsky、Rumelhart等人所在的并行分布处理(PDP)小组的研究者在Hopfield网络中引入了随机机制,提出所谓的Boltzmann机。,9/24/2022,8,发展历史第二高潮期(19831990)9/24/20228,发展历史, 1986年,并行分布处理小组的Rumelhart等研究者重新独立地提出多层网络的学习算法BP算法,较好地解决了多层网络的学习问题。(Paker1982和Werbos1974年) 自适应共振理论(ART) 自组织特征映射理论,9/24/2022,9,发展历史 1986年,并行分布处理小组的Rumelh
6、,发展历史, Hinton 等人最近提出了 Helmboltz 机 徐雷提出的 Ying-Yang 机理论模型 甘利俊一( S.Amari) 开创和发展的基于统计流形的方法应用于人工神经网络的研究, 国内首届神经网络大会是1990年12月在北京举行的。,9/24/2022,10,发展历史 Hinton 等人最近提出了 Helmbol,并行分布式理论框架,1986年,美国加州大学圣地亚哥分校(UCSD)Rumellhart,McClelland,Hinton: Parallel and Distributed Processing, MIT Press, Cambridge,9/24/2022,
7、11,并行分布式理论框架 1986年,美国加州大学圣地亚哥分校(,并行分布式理论框架,PDP模型1) 一组处理单元(PE或AN)2) 处理单元的激活状态(ai)3) 每个处理单元的输出函数(fi)4) 处理单元之间的连接模式5) 传递规则(wijoi)6)把处理单元的输入及当前状态结合起来产生激活值的激活规则(Fi)7) 通过经验修改连接强度的学习规则8) 系统运行的环境(样本集合),9/24/2022,12,并行分布式理论框架PDP模型9/24/202212,神经网络的维数,Various types of neuronsVarious network architecturesVariou
8、s learning algorithmsVarious applications,9/24/2022,13,神经网络的维数9/24/202213,自组织神经网络的典型结构,交互与竞争IAC神经网络,竞争层,输入层,9/24/2022,14,自组织神经网络的典型结构交互与竞争IAC神经网络竞争层输入层,竞争学习,相似性测量欧式距离法,9/24/2022,15,竞争学习相似性测量欧式距离法9/24/202215,相似性测量余弦法,竞争学习,9/24/2022,16,相似性测量余弦法竞争学习9/24/202216,竞争学习规则Winner-Take-All,网络的输出神经元之间相互竞争以求被激活,
9、结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,故称为Winner Take All。,竞争学习原理,9/24/2022,17,竞争学习规则Winner-Take-All,寻找获胜神经元 当网络得到一个输入模式向量时,竞争层的所有神经元对应的内星权向量均与其进行相似性比较,并将最相似的内星权向量判为竞争获胜神经元。,欲使两单位向量最相似,须使其点积最大。即:,竞争学习原理,9/24/2022,18,寻找获胜神经元 当网络得到一个输入模式向量时,竞争层的所有,从上式可以看出,欲使两单位向量的欧式距离最小,须使两向量的点积最大。即:,竞争学习
10、原理,9/24/2022,19,从上式可以看出,欲使两单位向量的欧式距离最小,须使两,3.网络输出与权值调整,步骤3完成后回到步骤1继续训练,直到学习率衰减到0。,竞争学习原理,9/24/2022,20,3.网络输出与权值调整 jj* 步骤3完,单层感知器模型,前馈神经网络,j=1,2,m,9/24/2022,21,单层感知器模型前馈神经网络j=1,2,m 9/24/20,净输入:,输出:,单层感知器,9/24/2022,22,净输入:输出:ojx1-1xn单层感知器9/24/2022,感知器的功能,(1)设输入向量X=(x1 ,x2)T,输出:,则由方程 w1jx1+w2jx2-Tj=0 确
11、定了二维平面上的一条分界线。,单计算节点感知器,单层感知器,9/24/2022,23,感知器的功能(1)设输入向量X=(x1 ,x2)T输出:则由,感知器的功能,单层感知器,9/24/2022,24,感知器的功能单层感知器9/24/202224,感知器的功能,(2)设输入向量X=(x1,x2,x3)T,输出:,则由方程 w1jx1+w2jx2+w3j x3Tj=0 (3.4) 确定了三维空间上的一个分界平面。,单层感知器,9/24/2022,25,感知器的功能(2)设输入向量X=(x1,x2,x3)T输出:,感知器的功能,单层感知器,9/24/2022,26,感知器的功能单层感知器9/24/2
12、02226,多层感知器,网络的拓扑结构,9/24/2022,27,多层感知器x1o1输出层隐藏层输入层x2o2omxn,双层感知器,“异或”问题分类,用两计算层感知器解决“异或”问题。,“异或”的真值表,多层感知器,9/24/2022,28,双层感知器“异或”问题分类用两计算层感知器解决“异或”问题。,双层感知器,“异或”问题分类,用两计算层感知器解决“异或”问题,“异或”的真值表,多层感知器,9/24/2022,29,双层感知器“异或”问题分类用两计算层感知器解决“异或”问题“,双层感知器,“异或”问题分类,用两计算层感知器解决“异或”问题。,“异或”的真值表,多层感知器,9/24/2022
13、,30,双层感知器“异或”问题分类用两计算层感知器解决“异或”问题。,双层感知器,“异或”问题分类,例四 用两计算层感知器解决“异或”问题。,“异或”的真值表,多层感知器,9/24/2022,31,双层感知器“异或”问题分类例四 用两计算层感知器解决“异或,具有不同隐层数的感知器的分类能力对比,多层感知器,9/24/2022,32,具有不同隐层数的感知器的分类能力对比多层感知器9/24/20,基于BP算法的多层前馈网络模型,误差反向传播(BP)网路,9/24/2022,33,基于BP算法的多层前馈网络模型误差反向传播(BP)网路9/2,基于BP算法的多层前馈网络模型,输入向量: X=(x1,x
14、2,xi,xn)T隐层输出向量: Y=(y1,y2,yj,ym)T输出层输出向量: O=(o1,o2,ok,ol)T期望输出向量:d=(d1, d2,dk,dl)T输入层到隐层之间的权值矩阵:V=(V1,V2,Vj,Vm)隐层到输出层之间的权值矩阵:W=(W1,W2,Wk,Wl),误差反向传播(BP)网路,9/24/2022,34,基于BP算法的多层前馈网络模型输入向量: X=(x1,3.4.1 基于BP算法的多层前馈网络模型,误差反向传播(BP)网路,9/24/2022,35,3.4.1 基于BP算法的多层前馈网络模型对于输出层:k=1,3.4.1 基于BP算法的多层前馈网络模型,双极性Si
15、gmoid函数:,误差反向传播(BP)网路,9/24/2022,36,3.4.1 基于BP算法的多层前馈网络模型双极性Sigmoi,一、网络误差 定义与权值调整思路,将以上误差定义式展开至隐层:,BP学习算法,9/24/2022,37,一、网络误差 定义与权值调整思路输出误差E定义:将以上误差定,一、网络误差与权值调整,进一步展开至输入层:,BP学习算法,9/24/2022,38,一、网络误差与权值调整进一步展开至输入层:BP学习算法9/2,BP学习算法,式中负号表示梯度下降,常数(0,1)表示比例系数。,在全部推导过程中,对输出层有j=0,1,2,m; k=1,2,l 对隐层有 i=0,1,
16、2,n; j=1,2,m,BP学习算法,9/24/2022,39,BP学习算法j=0,1,2,m; k=1,2,li,对于输出层,式(3.4.9a)可写为,yj,xi,BP算法推导,9/24/2022,40,对于输出层,式(3.4.9a)可写为对隐层,式(3.4.9b,(1)初始化;,(4)计算各层误差信号;,(5)调整各层权值;,(6)检查是否对所有样本完成一次 轮训;,(7)检查网络总误差是否达到精 度要求。,(2)输入训练样本对X Xp、d dp计算各层输出;,(3)计算网络输出误差;,BP算法的程序实现,9/24/2022,41,(1)初始化; (4)计算各层误差信号; (5)调整各层
17、权,然后根据总误差计算各层的误差信号并调整权值。,另一种方法是在所有样本输入之后,计算网络的总误差:,BP算法的程序实现,9/24/2022,42,然后根据总误差计算各层的误差信号并调整权值。 另一,(1)非线性映射能力,多层前馈网能学习和存贮大量输入-输出模式映射关系,而无需事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式对供BP网络进行学习训练,它便能完成由n维输入空间到m维输出空间的非线性映射。,多层前馈网(感知器)的主要能力,9/24/2022,43,(1)非线性映射能力 多层前馈网能学习和存贮,(2)泛化能力,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入
18、空间向输出空间的正确映射。这种能力称为多层前馈网的泛化能力。,(3)容错能力,输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。,多层前馈网(感知器)的主要能力,9/24/2022,44,(2)泛化能力 当向网络输入训练时未曾见过的,误差函数的可调整参数的个数 nw 等于各层权值数加上阈值数,即:,误差 E 是 nw+1 维空间中一个形状极为复杂的曲面,该曲面上的每个点的“高度”对应于一个误差值,每个点的坐标向量对应着 nw 个权值,因此称这样的空间为误差的权空间。,BP算法的局限性,9/24/2022,45,误差函数的可调整参数的个数 nw 等于各层权,误差曲面的分布有两个特
19、点:,特点之一:存在平坦区域,BP算法的局限性,9/24/2022,46,误差曲面的分布有两个特点:特点之一:存在平坦区域 BP算法的,特点之二:存在多个极小点,多数极小点都是局部极小,即使是全局极小往往也不是唯一的,但其特点都是误差梯度为零。,误差曲面的平坦区域会使训练次数大大增加,从而影响了收敛速度;而误差曲面的多极小点会使训练陷入局部极小,从而使训练无法收敛于给定误差。,BP算法的局限性,9/24/2022,47,特点之二:存在多个极小点 多数极小点都是局部极,标准的BP算法在应用中暴露出不少内在的缺陷:, 易形成局部极小而得不到全局最优; 训练次数多使得学习效率低,收敛速度慢; 隐节点
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经 信息学 课件

链接地址:https://www.31ppt.com/p-1439854.html