《前馈神经网络》PPT课件.ppt
《《前馈神经网络》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《前馈神经网络》PPT课件.ppt(51页珍藏版)》请在三一办公上搜索。
1、3.前馈神经网络,前馈神经网络是神经网络中一种典型分层结构,信息 流从输入层进入网络后逐层向前传递至输出层。根据前愦网络中神经元转移函数、隐层数以及权值调整规则的不同,可形成具有各种功能特点的神经网络。,3.1单层感知器,1958年,美国心理学家 Frank Rosenblatt 提出一种具有单层计算单元的神经网络,称 Perceptron,即感知器。感知器是模拟人的视觉接受环境信息,并由神经冲动进行信息传递。感知器研究中首次提出了自组织、自学习的思想,而且对所能解决的问题存在着收敛算法,并能从数学上严格证明,因而对神经网络的研究起了重要的推动作用。单层感知器的结构与功能都很简单,以至于目前很
2、少被应用来解决实际问题,但它是研究其他神经网络的基础。,3.1.1 感知器模型,y1,yj,ym,W1,Wj,Wm,x1,x2,xi,xn,单层感知器,处理层,输入层,处理层,m个神经接点,每节点均有信息处理能力,m个节点向外部处理输出信息,构成输出列向量Y。Y=Y1 Y2.YjYmT,输入层,感知层,n个神经节点,无信息处理能力,只负责引入外部信息X。X=x1 x2 xi xnT,两层间连接权值用权值列向量Wj表示,m个权向量构成单层感知器的权值矩阵W。,Wj=w1j w2j wijwnjT W=W1 W2 WjWmT,由神经元数学模型,处理层中任一节点,其净输入netj来自输入层各节点的输
3、入加权和:,离散型单计算层感知器采用符号型转移函数,则j节点输出为:,3.1.2 感知器的功能,为便于直观分析,现考虑单计算节点感知器的情况:,yj,Wj,x1,x2,xi,xn,w1j,w2j,wij,wnj,j,明显看出:单计算节点感知器实际上就是一个M-P神经元模型。,因为采用符号转移函数,又称符号单元。,下面分三种情况讨论单计算节点感知器的功能:,(1)设输入向量X=x1 x2T两个输入分量x1 和x2构成一个二维平面,输入样本X可用该平面上一个点表示。,节点j的输出yj为:,则方程,成为二维输入样本空间上的一条分界线。,线上方的样本用表示,它们使,的区域都会使yj=1;,线下方样本用
4、表示,它们使,的区域都会使yj=-1.,显然,由感知器权值和阈值确定的直线方程规定了分界线在样本空间的位置,可将输入样本分为两类。,x1,x2,(2)设输入向量X=x1 x2 x3T,则x1,x2,x3几何上构成一个三维空间。节点j的输出为:,方程,确定的平面成为三维输入样本空间的,一个分界面。把输入样本和正确分两类(对应yj=1和-1),(3)推广到n维空间的一般情况,输入向量X=x1 x2 xnT,则n个输入分量构成几何n维空间。,方程,定义的n维空间超平面,将输入,样本分为2类。,看出,一个简单的单计算节点感知器具有分类功能,其分类原理是将分类知识存储于感知器的权向量(包括阈值)中,由权
5、向量确定的分类判决界面(线),可将输入模式分为两类。,但是,权重系数和阈值一般是不可事先预知的,在初始人为给定的权值和阈值所确定的分界面也不可能将类别正确分开。,只有用足够多的已知其类别的输入样本X,对神经网络进行训练,让神经元通过学习自动地找到那些权重系数和阈值,从而,确定的分界面,才是有实际意义的。,神经元在实现其分类功能以前,必须有学习和训练阶段,在此阶段向神经元送入足够多数量的样本X,并需要指明每个矢量X所属类别。所以这是一种教师指导下的学习。,单计算节点感知器实现逻辑运算问题:,逻辑”与”功能:,真值表:,X1 x2 y0 0 00 1 0 0 01 1 1,4个样本,两种输出,0,
6、1,属分类问题,使用单节点感知器,用感知器规则训练,得到连接权及阈值如图:,x1,x2,y,0.5,0.5,0.75,-1,令计算节点净输出为0,得分类判决方程:,0.5x1+0.5x2-0.75=0,该直线方程正确地把两类样本分类.,将输出为1的样本点作、输出为0的样本点作表示。按真值表作图,得:,(0,1),(1,0),(1,1),(0,0),x1,x2,0.5x1+0.5x2-0.75=0,该分类线不唯一,取决于具体的权值训练,逻辑”或”功能:,真值表:,X1 x2 y0 0 00 1 1 0 11 1 1,4个样本,两种输出,0,1,属分类问题,x1,x2,y,1,1,-0.5,-1,
7、学习训练的w1=w2=1,=-0.5,净输入为0得分类判决方程:x1+x2-0.5=0,(1,0),(1,1),x2,(0,1),(0,0),x1,x1+x2-0.5=0,实现两类样本正确分类,例:设计一个感知器神经网络,完成下列分类,以MATLAB编程仿真程序,并画出分类线.,解(1)问题分析,输入向量2个元素,取值范围-1,1;输出向量一个元素,是一个二值节点,取值0或1.可确定单层感知器神经网络结构:一个二维输入向量,一个神经元,神经元转移函数为hardlim(硬限幅函数),(2)程序设计,已知:,p1,p2,a,-1,%设计一个感知器神经网络,实现二维向量分类功能clear all;%
8、清除所有内存变量%初始化感知器网络pr=-1 1;-1 1;%设置感知器网络输入向量每个元素的值域net=newp(pr,1);%定义感知器网络,一个神经元net.layers1.transferFcn=hardlims;%指定感知层转移函数为对称硬限幅函数%训练感知器网络p=0.5-1;1 0.5;-1 0.5;-1-1;%输入向量(训练样本值)t=0 1 1 0;%目标向量net,tr=train(net,p,t);%训练感知器网络%存储训练后的网络save net35 net,%Example35Simclear all;%清除所有内存变量%加载训练后的网络load net35 net%
9、网络仿真P=0.5-1;1 0.5;-1 0.5;-1-1%输入向量(测试样本)a=sim(net,P)%仿真结果%绘制网络的分类结果及分类线v=-2 2-2 2;%设置坐标的范围plotpv(P,a,v);%绘制分类结果plotpc(net.iw1,net.b1);%绘制分类线net.iw1%输出权值net.b1%输出阈值,TRAINC,Epoch 0/100TRAINC,Epoch 2/100TRAINC,Performance goal met.P=0.5000 1.0000-1.0000-1.0000-1.0000 0.5000 0.5000-1.0000a=0 1 1 0ans=0.
10、5000 1.5000(权)ans=0(阈值),3.1.3感知器的局限性,“异或”问题,真值表:,X1 x2 y0 0 00 1 1 0 11 1 0,4个样本,两种输出,0,1,也是二值分类问题,(1,0),(1,1),x2,(0,1),(0,0),x1,任何直线均不能将两类样本正确分开!,感知器由于净输入为0,确定的分类判决方程是线性方程,因而只能解决线性可分问题的分类,不能解决线性不可分问题.这称为单计算层感知器的局限性.,3.1.4感知器的学习算法,感知器采用感知器学习规则进行训练,用t表示学习步的序号,权值看作t的函数.t=0对应学习开始前的初始状态(此时权值为初始值),训练过程如下
11、:,(1)对各初始权值w0j(0),w1j(0),wnj(0),j=1,2m(m为计算层的节点数)赋予较小的非零随机数;,(2)输入样本对Xp,dp,其中Xp=-1 x1p x2p xnpT,dp为期望输出向量(教师信号),下标p代表样本对的模式序号,设样本集中的样本总数为P,则p=1,2,P;,(3)计算各节点的实际输出yjp(t)=sgnWjT(t)Xp,j=1,2,m.,(4)调整各节点对应的权值 Wj(t+1)=Wj(t)+djp-yjp(t)Xp j=1,2,m,学习率,一般取0 1,用于调整控制速度,太大影响训练稳定性,太小使训练的收敛性变慢.,(5)返回到步骤(2),输入下一对样
12、本,周而复始直到所有样本使感知器的实际输出与期望输出相等(dp-yp=0,p=1,2,P).,已经得到证明,如果输入样本线性可分,无论感知器的初始权向量如何取值,经过有限次调整后,总能稳定到一个权向量,该权向量确定的超平面能将两类样本正确分开.,能够将样本正确分类的权向量并不唯一,一般初始权向量不同,训练过程和所得到的结果也不同,但都可满足误差为零的要求.,例.单计算节点感知器有3个 输入,现给定3对训练样本:,X1=-1 1-2 0T d1=1;X2=-1 0 1.5-0.5T d2=-1;X3=-1-1 1 0.5T d3=1.,设初始权向量 W(0)=0.5 1-1 0T=0.1,注意:
13、输入向量中第一个分量x0恒等于-1,权向量中第一个分量为阈值,试训练该感知器网络.,解:第一步,输入X1,WT(0)X1=0.5 1-1 0-1 1-2 0T=2.5,Y1(0)=sgn(2.5)=1,W(1)=W(0)+d1-y1X1=0.5 1-1 0T+0.1(-1-1)-1 1-2 0T=0.7 0.8-0.6 0T,第二步,输入X2,WT(1)X2=0.7 0.8-0.6 0-1 0 1.5-0.5T=-1.6,Y2(1)=sgn(-1.6)=-1,W(2)=W(1)+d2-y2(1)X2=0.7 0.8-0.6 0T+0.1-1-(-1)-1 0 1.5-0.5T=0.7 0.8-
14、0.6 0T,第三步,输入X3,WT(2)X3=0.7 0.8-0.6 0-1-1 1 0.5T=-2.1,Y3(2)=sgn(-2.1)=-1,W(3)=W(2)+d3-y3(2)X3=0.5 0.6-0.4 0.1T,第四步,返回到第一步,继续训练,直到dp-yp=0 p=1,2,3,3.2多层感知器,单计算层感知器只能解决线性可分问题,多层感知器可解决线性不可分问题.,如,采用两计算层感知器解决”异或”问题:,1,2,3,-1,-1,x1,x2,y1,y2,y3,w11,w12,w21,w22,3,1,2,输出层节点以隐层两节点y1,y2的输出作为输入,其结构也相当于一个符号单元.,隐层
15、两节点相当于两个独立的符号单元(单计算节点感知器).,具有两个计算层感知器,x1、x2构成的平面上,1、2两符号单元确定两条分界直线s1和s2,可构成开放式凸域如图.,(1,0),(1,1),x2,(0,1),(0,0),x1,s1,s2,通过网络训练,调整两直线位置,可使“异或”两类线性不可分样本分别位于该开放式凸域内部和外部。,(1,0),(1,1),x2,(0,1),(0,0),x1,s1,s2,1,2,3,x1,x2,y1,y2,w11,w12,w21,3,1,2,y3,y1=0,y2=0,y1=1,y2=1,对隐节点1:s1下面的样本,使其输出为y1=1,而s1上面样本使y1=0;,
16、对隐节点2:s2上面的样本,使其输出为y2=1,而s2下面样本使y2=0;,这样可实现:输入类信息时有,y1=1y2=1,(在凸域内),输入类样本时有,y1=0y2=1,(同时处在s1、s2上方,即s1上面的),和有,y1=1y2=0,(同时处在s1、s2下方,即s2下方的),这样,把输出层节点3以隐层两节点y1、y2为输入,经训练,使其具有逻辑“与非”功能,则“异或”问题得以解决。,两个计算层的感知器求解“异或”问题各节点输出情况:,x1 x2 y1 y2 y30 0 1 1 00 1 0 1 11 0 1 0 11 1 1 1 0,实现 x1,x2 y3,(“异或”逻辑),采用 y1,y2
17、 y3,(“与非”逻辑),看出:单隐层感知器可以求解异或问题,具有解决线性不可分问题的分类能力。,就单隐层感知器,当输入样本为二维向量时,隐层中每个计算节点确定了二维平面上的一条分界直线。多条直线(隐层中多个节点)经输出节点组合后会构成各种形状凸域(凸域是指其边界上任两点连线均在域内)。,开式凸域,闭式凸域,通过训练调整凸域形状,可将两类线性不可分样本分为域内域外。,单隐层节点数增加可以使多边凸域边数增加,从而在输出层构建出任意形状的凸域。如果再增加第二隐层,则该隐层的每节点确定一个凸域,各种凸域经输出节点组合后,会得到任意形状域,分类能力大大提高。,凸域组合的任意形状,已经过严格的数学证明,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 前馈神经网络 神经网络 PPT 课件

链接地址:https://www.31ppt.com/p-5472062.html