人工神经网络与智能算法.ppt
《人工神经网络与智能算法.ppt》由会员分享,可在线阅读,更多相关《人工神经网络与智能算法.ppt(75页珍藏版)》请在三一办公上搜索。
1、智能算法(Intelligent Algorithm),2,主要内容,人工神经网络(Artificial Neural Network,ANN)模拟退火(Simulated Annealing,SA)遗传算法(Genetic Algorithm,GA),3,人工神经网络参考文献,陈念贻,钦佩,陈瑞亮,陆文聪,模式识别方法在化学化工中的应用,科学出版社,北京,2000。从爽,面向MATLAB工具箱的神经网络理论与应用,中国科学技术出版社,合肥,1998。焦李成,神经网络计算,西安电子科技大学出版社,西安,1993。王永骥,涂健,神经元网络控制,机械工业出版社,北京,1998。Bishop,C.(
2、1995).Neural Networks for Pattern Recognition.Oxford:University Press.Carling,A.(1992).Introducing Neural Networks.Wilmslow,UK:Sigma Press.Fausett,L.(1994).Fundamentals of Neural Networks.New York:Prentice HallHaykin,S.(1994).Neural Networks:A Comprehensive Foundation.New York:Macmillan Publishing.P
3、atterson,D.(1996).Artificial Neural Networks.Singapore:Prentice Hall.,4,生物神经元及神经网络,神经元对信息的接受和传递都是通过突触来进行的。单个神经元可以从别的细胞接受多个输入。由于输入分布于不同的部位,对神经元影响的比例(权重)是不相同的。另外,各突触输入抵达神经元的先后时间也不一祥。因此,一个神经元接受的信息,在时间和空间上常呈现出一种复杂多变的形式,需要神经元对它们进行积累和整合加工,从而决定其输出的时机和强度。正是神经元这种整合作用,才使得亿万个神经元在神经系统中有条不紊、夜以继日地处理各种复杂的信息,执行着生物中
4、枢神经系统的各种信息处理功能。多个神经元以突触联接形成了一个神经网络。,5,一、人工神经网络,什么是人工神经网络?它就是在对大脑的生理研究的基础上,用模拟生物神经元的某些基本功能元件(即人工神经元),按各种不同的联结方式组织起来的一个网络。其目的在于模拟大脑的某些机理与机制,实现某个方面的功能,可以用在模仿视觉、模式识别、函数逼近、模式识别、分类和数据压缩等领域,是近年来人工智能计算的一个重要学科分支。人工神经网络有多种形式,其中反向传播人工神经网络(Back-Propagation Artificial Network,简称BP网络)是一种广泛使用的神经网络模型,它充分体现了人工神经网络的特
5、点。BP网络是一种对非线性可微分函数进行权值训练的多层网络,在人工神经网络的实际应用中,8090的人工神经网络模型是采用BP网络或它的变化形式。,6,1.1 BP神经网络,神经元的结构神经元是人工神经网络的基本处理单元,它一般为多输入/单输出的非线性元件。神经元输出除受输入信号的影响外,还受神经元内部其它因素的制约,因此在人工神经元的建模中,常常加一额外输入信号,称为偏差(bais),并取值为1。,输入分量,权值分量,神经元的输出,偏差权值,激活函数,输入分量通过与它相乘的权值分量相连,求和后与偏差权值共同构成激活函数的输入。,7,偏差,神经元的输出为:,偏差b被简单地加在,上,作为激活函数的
6、一个输入分量。,偏差的重要作用,它使得激活函数的图形可以左右移动,这样可增加网络解决问题的能力。,8,激活函数,激活函数具有模拟生物神经元的非线性特性。,Sigmoid函数:,双曲正切tanh函数:,Sigmoid函数和双曲正切tanh函数都是单调上升函数,其极值分别为0、1和1、1,且都是可微的。,9,激活函数的一阶导数,在BP神经网络训练算法中,要用到激活函数的一阶导数。,Sigmoid函数的导数:,双曲正切tanh函数的导数:,由此可以看出,由于激活函数的特点,用神经网络计算时,需对输入和输出的值进行调整。,激活函数是采用Sigmoid函数时,输入和输出的值应在0,1之间;激活函数是双曲
7、正切tanh函数时,输入和输出的值范围则在1,1之间。,10,1.2 BP网络的模型结构,BP网络是一种在输入层和输出层之间具有一层或多层隐层的网络模型,而其典型的结构为有一隐层、包含输入层和输出层的三层网络模型。典型BP网络的结构示意图如下:,网络的输入模式向量为P,有r个输入神经元,对应输入模式向量的每个元素。,隐层内有s1个神经元,对应隐层输出是a1。,网络的输出为a2,有s2个神经元,而目标输出为T。,三层BP神经网络不同层神经元之间实现权重连接,而每层内各个神经元之间不连接。,11,BP网络的四个计算过程,输入模式由输入层经隐含层向输出层的“模式正向传播”过程;(神经元的激活值从输入
8、层经隐含层向输出层传播,在输出层各神经元获得网络响应。)网络实际输出与希望输出的误差信号由输出层经隐含层向输入层逐层修正连接权和阂值的“误差反向传播”过程;由“模式正向传播”过程与“误差反向传播”过程的反复交替进行的网络学习训练过程;网络全局误差趋向极小的学习收敛过程。(网络对输入模式响应的正确率也不断增加。),12,BP网络的计算过程的简单描述(1),模式正向传播过程,隐含层中第j个神经元的输出为:,输出层中第k个神经元的输出为:,误差反向传播过程,定义误差函数为:,神经网络学习的过程就是通过调整权值,使误差E最小,此时可利用最速下降法求权值及误差的反向传播。,13,BP网络的计算过程的简单
9、描述(2),隐含层中第j个神经元的输出的权值变化为:,对第i个输入到隐含层中第j个神经元输出的权值变化为:,修正后的新权重调整为:,称为学习系数,值在0,1之间。,14,加快BP网络训练速度的方法,BP网络得到了广泛的应用,但也存在自身的不足与限制,主要表现在网络训练需较长时间和网络有可能达到局部最小。据此,BP网络有各种改进方法,以加快训练速度,避免陷入局部极小。主要的改进方法有:,增加动量项,以平滑权的变化,一种常用形式是:,为动量因子,值在0,1之间,n为迭代次数。,采用二阶学习算法。前面的基于函数梯度的算法属于一阶算法,缺点就是在极值点附近收敛速度慢。采用二阶算法,如牛顿法、共轭梯度法
10、等,将有较快的收敛速度。,模拟退火法。,15,1.4 BP神经网络计算(1),网络的层数:在运用BP神经网络时,最多采用的是具有一层或两层隐层的网络。具有偏差和至少一个S型隐层的网络,可以近似任何函数,这已成为设计BP神经网络的原则。网络计算精度的提高,可以通过采用一个隐层,而增加隐层神经元数的方法来获得,这也就是通常用一隐层、包含输入层和输出层的三层BP网络模型的原因。神经元数:输入和输出的神经元数可以根据需要求解的问题和数据所表示的方式来确定。问题确定后,输入层与输出层的神经元数也就随之定了。隐层神经元数的选择有较广的范围:当隐层神经元数较少时,误差下降到一定程度后会变化很小;当隐层神经元
11、数过多时,不仅网络训练时间长,还会出现过拟合问题,降低神经网络的预测功能。通常隐层神经元数的选择原则是:在能解决问题的前提下,再加上1到2个神经元以加快误差的下降速度即可。,16,BP神经网络计算(2),初始权值的选取 权重初始值的选取,对网络训练学习是否达到局部最小,是否能够收敛以及训练时间的长短有很大的关系。如果初始权值太大,使得加和后的值落在激活函数的饱和区,从而导致激活函数的导数非常小,在计算权值修正时,调整值接近零,网络的学习训练几乎处在停止状态。所以一般总是希望经过初始权值计算后每个神经元的输出值都接近零,这样可以保证每个神经元的权值都能在激活函数变化最大之处进行调节。一般来说,初
12、始权值取-1,1之间的随机数是较好的选择。,17,BP神经网络计算(3),学习速率学习速率决定每一次循环训练中所产生的权值变化量。大的学习速率可能导致系统的不稳定;但小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于最小误差值。所以在一般情况下,倾向于选取较小的学习速率以保证系统的稳定性。学习速率的选取范围在0.010.8之间。在一个神经网络的计算过程中,使网络经过几个不同的学习速率的训练,通过观察每一次训练后的误差平方和的下降速率来判断所选定的学习速率是否合适。如果误差平方和下降很快,则说明学习速率合适若误差平方和出现振荡现象,则说明学习速率过
13、大。对于每一个具体网络都存在一个合适的学习速率。但对于较复杂网络,在误差曲面的不同部位可能需要不同的学习速率。为了减少寻找学习速率的训练次数以及训练时间,比较合适的方法是采用变化的学习速率,使网络的训练在不同的阶段自动设置不同学习速率的大小。,18,BP神经网络计算程序BATCHNET简介,BATCHNET是一个 BP神经网络计算的DOS程序,程序由batchnet.exe和weights.exe两个可执行文件构成。batchnet为网络训练和预测程序,激活函数为Sigmoid函数,输入输出样本值范围为0,1。weights程序产生初始权值。批处理程序demo.bat,batchnet-e10
14、 d1.0e-5 demo.run,说明:-e10 表示网络每迭代10步后显示误差;d1.0e-5 表示网络训练误差;demo.run 求解问题的网络参数文件,由batchnet调用,文件名可改,但扩展名run不能变。,19,BP神经网络计算程序BATCHNET简介,网络参数文件demo.run的格式,4train.out train.err train.pat weights.wts train.wts 100 1000 9 4 2 0.15 0.075test.out test.err test.pat train.wts test.wts 166 1 9 4 2 0.15 0.075tr
15、ain.out train.err train.pat train.wts train.wts 100 1000 9 4 2 0.15 0.075test.out test.err test.pat train.wts test.wts 166 1 9 4 2 0.15 0.075,NumfOut fErr fPat fWts fWtso nPats nIter nInp nHid nOut eta alpha,Num 运行次数,本例为4;fOut 网络计算结果输出文件,输出;fErr 网络计算误差文件,输出;fPat 训练学习样本文件,输入;fWts 问题的初始权值文件,输入,由程序weig
16、hts产生;fWtso 训练后的权值文件,输出;nPats 训练样本数,本例为100;nIter 训练迭代次数,本例为1000;nInp 输入层神经元数目,本例为9;nHid 隐层神经元数目,本例为4;nOut 输出层神经元数目,本例为2;eta 学习速率,本例为0.15;alpha 动量因子,本例为0.075。,表示用BP神经网络先对100对输入输出样本进行学习训练1000次,预测166个样本一次,然后继续学习训练1000次后再进行一次预测。Batchnet如只计算一次,则不对连接权重进行更新。,20,BP神经网络计算程序BATCHNET简介,程序weights的运行:,weights in
17、t_num nInp nHid nOut ran_wts,说明:int_num 任一6位整数;nInp 输入层神经元数目;nHid 隐层神经元数目;nOut 输出层神经元数目,这3个参数同run程序中的相一致;ran_wts 初始权值取值范围,实数1.表示取值范围在-1,1之间。,Weights 123456 9 4 2 1.0,21,BP神经网络计算程序BATCHNET简介,训练样本文件fPat的格式:,说明:In_pat 样本的输入;Out_pat 对应的样本输出;Id 对应的样本标号;,In_pat Out_pat Id,0.363636 0.191667 0.7 0.75 0.6666
18、67 0.531225 0.0898333 0.0504219 0.6844341 0 12345670.327273 0.187501 0.733333 0.75 0.8 0.531038 0.0819442 0.0504219 0.8010571 0 1234567,22,STATISTICA Neural Networks(SNN)简介,通过输入数值变量(自变量)可以用神经网络来计算输出变量(应变量),输出变量的类型可以是数值型的,也可以是非数值型的。在SNN中,求解问题可通过两种基本方式来进行:智能问题求解器(Intelligent Problem Solver)或程序的菜单。智能问题
19、求解器引导使用者建立求解问题的神经网络。在智能问题求解器中,有基本型和高级型两种模式可供选择。基本型中,使用者只能控制设计神经网络中的几个关键点,包括问题类型(样本相互独立的标准型和变量预测值依赖先前值的时间序列)、输出和输入变量、求解器筛选优化网络的计算时间控制、在网络设置中需保存的网络情况以及需显示的结果与统计,其余的网络设计及计算由求解器自动完成。基本型供对神经网络计算了解不多者使用。高级型中,使用者能控制设计神经网络的各方面,包括网络训练、校验、测试时所用数据的分割、置信度的类型选择、选择需产生网络的类型及复杂程度等,供对神经网络计算较熟悉者使用。,23,SNN中的神经网络方法,多层网
20、络(Multilayer Perceptrons);径向基函数网络(Radial Basis Function Networks);概率神经网络(Probabilistic Neural Networks);通用回归神经网络(Generalized Regression Neural Networks);线性网络(Linear Networks);Kohonen网络(Kohonen Networks);神经网络的时间序列预测(Time Series Prediction)。,24,SNN菜单 命令汇总,25,SNN处理数据需要注意的两个问题,数据的前处理与后处理在处理实际问题的数据时,数据要进
21、行匀整处理,这样的处理包括计算前和计算后的处理。神经网络计算用的数据类型应该是数值型的,当有些问题的变量是多态的情况,如对与错等,这些变量在用神经网络处理时,也需将其数值化。在SNN中有Pre/post processing,可处理这些数据的变换问题,有时还可以用Options菜单中的STATISTICA Transfer,使数据直接在STATISTICA中处理。过拟合问题在用多项式拟合数据时,就会出现过拟合的情况。一个低阶多项式可能做不到很好地拟合所有的数据点,而一个高阶的则可能做到,但实际上没有反映问题的性质。,26,SNN处理过拟合的方法,神经网络计算有同样的问题,隐层神经元数太少,不能
22、很好地描述问题,神经元数过多,会出现过拟合,因较大的神经网络总能使误差减小。解决过拟合的办法之一是用交替有效法(Cross-verification)。一些训练用样本不参加神经网络的学习训练,而是独立地在训练学习过程中用来校验。当校验误差出现同训练学习误差不一样的情况,即不是随着训练学习的进行,训练误差不断减小,反而停止下降,开始升高,表明网络有过拟合数据的情况,这时应减少隐层神经元数。在SNN中智能问题求解器具有自动选择隐层神经元数的功能。,27,SNN的求解过程,在神经网络的研究和计算中,常能见到异或问题的求解与讨论。这里以异或问题的求解为例介绍SNN的求解过程,并对SNN智能问题求解器中
23、的各项选择作一说明。,异或问题两个输入变量为二进制的数,其可能的取值及期望输出如右表所示:,异或问题看起来简单,但具有复杂的特征,它不是线性可分的,即不可能有一直线使同类在线的一边,如右图所示:,28,SNN中的智能问题求解器使用步骤,Step 1:建立上述的数据文件,输入变量类型(Input or Output),样本分组(Training、Verification、Testing),29,Step 2:选择求解问题方式问题类型(Basic or Advanced),选择“Advanced”。,30,SNN中的智能问题求解器使用步骤,Step 3:选择问题类型(Problem Type),选
24、择“Standard”。,31,SNN中的智能问题求解器使用步骤,Step 4:选择输出变量(Output Variable Selection),选择XOR变量作为输出变量。,32,SNN中的智能问题求解器使用步骤,Step 5:选择输入变量(Input Variable Selection),选择变量FIRST,SECOND作为输入变量。并关闭选项“Search for an effective subset”。,33,SNN中的智能问题求解器使用步骤,Step 6:样本分组(Division of cases)。控制训练(Training)、检验(Verification)和测试(Tes
25、ting)样本的大小。,采用自定义分组样本,34,SNN中的智能问题求解器使用步骤,Step 7:选择网络类型(Type of Network)。为比较网络,几种网络都选,即线性、径向基函数(RBF)、通用回归神经网络(GRNN)、三层和四层MLP。,35,SNN中的智能问题求解器使用步骤,Step 8:控制网络隐层数目(Hidden Units)。选择“Determine network complexity automatically”自动确定网络复杂性,忽略数值选定。,36,SNN中的智能问题求解器使用步骤,Step 9:网络设计过程(Duration of Design Process
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 智能 算法
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-5194568.html