教材简介名称人工智能原理与应用作者张仰森出版社.ppt
《教材简介名称人工智能原理与应用作者张仰森出版社.ppt》由会员分享,可在线阅读,更多相关《教材简介名称人工智能原理与应用作者张仰森出版社.ppt(40页珍藏版)》请在三一办公上搜索。
1、,欢迎使用本课件,教材简介:名 称:人工智能原理与应用 作 者:张仰森 出版社:高等教育出版社 章 节:共十章,主讲教师:宗春梅,人工神经网络是集脑科学、神经心理学和信息科学等多学科的交叉研究领域,是近年来高科技领域的一个研究热点。它的研究目标是通过研究人脑的组成机理和思维方式,探索人类智能的奥秘,进而通过模拟人脑的结构和工作模式,使机器具有类似人类的智能。它已在模式识别、机器学习、专家系统等多个方面得到应用,成为人工智能研究中的活跃领域。本章将简要介绍神经网络基本的概念、模型以及学习算法。,9.1.1 生物神经元的结构与功能特性 1.生物神经元的结构 神经细胞是构成神经系统的基本单元,称之为
2、生物神经元,简称神经元。神经元主要由三部分构成:(1)细胞体;(2)轴突;(3)树突;(如图9.1),图9.1 生物神经元结构,9.1 神经网络的基本概念及组成特性,突触是神经元之间相互连接的接口部分,即一个神经元的神经末梢与另一个神经元的树突相接触的交界面,位于神经元的神经末梢尾端。突触是轴突的终端。2.神经元的功能特性(1)时空整合功能。(2)神经元的动态极化性。(3)兴奋与抑制状态。(4)结构的可塑性。(5)脉冲与电位信号的转换。(6)突触延期和不应期。(7)学习、遗忘和疲劳。,9.1 神经网络的基本概念及组成特性,9.1.2 人工神经网络的组成与结构 1.人工神经网络的组成 人工神经网
3、络(简称ANN)是由大量处理单元经广泛互连而组成的人工网络,用来模拟脑神经系统的结构和功能。而这些处理单元我们把它称作人工神经元。人工神经网络(ANN)可看成是以人工神经元为节点,用有向加权弧连接起来的有向图。在此有向图中,人工神经元就是对生物神经元的模拟,而有向弧则是轴突突触树突对的模拟。有向弧的权值表示相互连接的两个人工神经元间相互作用的强弱。,9.1 神经网络的基本概念及组成特性,图9.2 人工神经网络的组成,图9.3 MP神经元模型,9.1 神经网络的基本概念及组成特性,2.人工神经元的工作过程 对于某个处理单元(神经元)来说,假设来自其他处理单元(神经元)i的信息为Xi,它们与本处理
4、单元的互相作用强度即连接权值为Wi,i=0,1,n-1,处理单元的内部阈值为。那么本处理单元(神经元)的输入为,而处理单元的输出为,(9.1.1),(9.1.2),式中,xi为第i个元素的输入,wi为第i个处理单元与本处理单元的互联权重。f称为激发函数或作用函数,它决定节点(神经元)的输出。,9.1 神经网络的基本概念及组成特性,(a)阈值型(b)分段线性型(c)Sigmoid函数型(d)双曲正切型 图 常用的激发函数,这里,,激发函数一般具有非线性特性,常用的非线性激发函数如图所示,称为激活值,9.1 神经网络的基本概念及组成特性,阈值型函数又称阶跃函数,它表示激活值和其输出f()之间的关系
5、。阈值型函数为激发函数的神经元是一种最简单的人工神经元,也就是我们前面提到的M-P模型。线性分段函数可以看作是一种最简单的非线性函数,它的特点是将函数的值域限制在一定的范围内,其输入、输出之间在一定范围内满足线性关系,一直延续到输出为最大域值为止。但当达到最大值后,输出就不再增大。S型函数是一个有最大输出值的非线性函数,其输出值是在某个范围内连续取值的。以它为激发函数的神经元也具有饱和特性。双曲正切型函数实际只是一种特殊的S型函数,其饱和值是1和1。,9.1 神经网络的基本概念及组成特性,3.人工神经网络的结构 人工神经网络中,各神经元的不同连接方式就构成了网络的不同连接模型。常见的连接模型有
6、:前向网络。从输入层到输出层有反馈的网络。层内有互联的网络。互联网络。,9.1 神经网络的基本概念及组成特性,4.人工神经网络的分类及其主要特征 分类 按性能分:连续型和离散型网络,或确定型和随机型网络。按拓扑结构分:有反馈网络和无反馈网络。按学习方法分:有教师的学习网络和无教师的学习网络。按连接突触性质分:一阶线性关联网络和高阶非线性关联网络。,9.1 神经网络的基本概念及组成特性,人工神经网络具有以下主要特征:(1)能较好的模拟人的形象思维。(2)具有大规模并行协同处理能力。(3)具有较强的学习能力。(4)具有较强的容错能力和联想能力。(5)是一个大规模自组织、自适应的非线性动力系统。,9
7、.1 神经网络的基本概念及组成特性,9.1.3 人工神经网络研究的兴起与发展人工神经网络的研究经历了不少的曲折,大体上可分为四个阶段:产生时期(20世纪50年代中期之前)高潮时期(20世纪50年代中期到20世纪60年代末期)低潮时期(20世纪60年代末到20世纪80年代初期)蓬勃发展时期(20世纪80年代以后),9.1 神经网络的基本概念及组成特性,9.2.1 感知器模型 感知器模型是美国学者罗森勃拉特(Rosenblatt)为研究大脑的存储、学习和认知过程而提出的一类具有自学习能力的神经网络模型,它把神经网络的研究从纯理论探讨引向了从工程上的实现。Rosenblatt提出的感知器模型是一个只
8、有单层计算单元的前向神经网络,称为单层感知器。教材中图9.5所示的即为一个单层感知器模型。,9.2 感知器模型及其学习算法,9.2.2 单层感知器模型的学习算法算法思想:首先把连接权和阈值初始化为较小的非零随机数,然后把有n个连接权值的输入送入网络,经加权运算处理,得到的输出如果与所期望的输出有较大的差别,就对连接权值参数按照某种算法进行自动调整,经过多次反复,直到所得到的输出与所期望的输出间的差别满足要求为止。为简单起见,仅考虑只有一个输出的简单情况。设xi(t)是时刻t感知器的输入(i=1,2,.,n),i(t)是相应的连接权值,y(t)是实际的输出,d(t)是所期望的输出,且感知器的输出
9、或者为1,或者为0,则单层感知器的学习算法请参见教材P325,9.2 感知器模型及其学习算法,9.2.3 线性不可分问题 单层感知器不能表达的问题被称为线性不可分问题。1969年,明斯基证明了“异或”问题是线性不可分问题:“异或”(XOR)运算的定义如下:其相应的逻辑运算真值表如表9-1所示。(见教材),9.2 感知器模型及其学习算法,由于单层感知器的输出为 y(x1,x2)=f(1x1+2x2-)所以,用感知器实现简单逻辑运算的情况如下:(1)“与”运算(x1x2)令1=2=1,=2,则 y=f(1x1+1x2-2)显然,当x1和x2均为1时,y的值1;而当x1和x2有一个为0时,y的值就为
10、0。(2)“或”运算(x1x2)令1=2=1,=0.5 y=f(1x1+1x2-0.5)显然,只要x1和x2中有一个为1,则y的值就为1;只有当x1和x2都为0时,y的值才为0。,9.2 感知器模型及其学习算法,(3)“非”运算(X1)令1=-1,2=O,=-0.5,则 y=f(-1)x1+1x2+0.5)显然,无论x2为何值,x1为1时,y的值都为0;x1为O时,y的值为1。即y总等于x1。(4)“异或”运算(x1 XOR x2)如果“异或”(XOR)问题能用单层感知器解决,则由XOR的真值表9-1可知,1、2 和 必须满足如下方程组:1+2-0 1+0-0 0+0-0 0+2-0 显然,该
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 教材 简介 名称 人工智能 原理 应用 作者 张仰森 出版社
链接地址:https://www.31ppt.com/p-5307792.html