BP神经网络基本原理.docx
《BP神经网络基本原理.docx》由会员分享,可在线阅读,更多相关《BP神经网络基本原理.docx(4页珍藏版)》请在三一办公上搜索。
1、BP神经网络基本原理BP神经网络基本原理 2.1 BP神经网络基本原理 BP网络模型处理信息的基本原理是:输入信号Xi通过中间节点作用于输出节点,经过非线形变换,产生输出信号Yk,网络训练的每个样本包括输入向量X和期望输出量t,网络输出值Y与期望输出值t之间的偏差,通过调整输入节点与隐层节点的联接强度取值Wij和隐层节点与输出节点之间的联接强度Tjk以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数,训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。 2.2 BP神经网络模型 BP网络模型包括其输入输出模型、
2、作用函数模型、误差计算模型和自学习模型。 节点输出模型 隐节点输出模型:Oj=f(WijXi-q j) (1) 输出节点输出模型:Yk=f(TjkOj-q k) (2) f-非线形作用函数;q -神经单元阈值。 图1 典型BP网络结构模型 作用函数模型 作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称刺激函数,一般取为(0,1)内连续取值Sigmoid函数: f(x)=1/(1+e-x) 误差计算模型 误差计算模型是反映神经网络期望输出与计算输出之间误差大小的函数: Ep=1/2(tpi-Opi)2 (4) tpi- i节点的期望输出值;Opi-i节点计算输出值。 自学习模型 神经网络的
3、学习过程,即连接下层节点和上层节点之间的权重拒阵Wij的设定和误差修正过程。BP网络有师学习方式-需要设定期望值和无师学习方式-只需输入模式之分。自学习模型为 Wij(n+1)= h iOj+aWij(n) h -学习因子;i-输出节点i的计算误差;Oj-输出节点j的计算输出;a-动量因子。 2.3 BP网络模型的缺陷分析及优化策略 学习因子h 的优化 采用变步长法根据输出误差大小自动调整学习因子,来减少迭代次数和加快收敛速度。 h =h +a(Ep(n)- Ep(n-1)/ Ep(n) a为调整步长,01之间取值 隐层节点数的优化 隐 节点数的多少对网络性能的影响较大,当隐节点数太多时,会导
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 神经网络 基本原理
链接地址:https://www.31ppt.com/p-3153421.html