第5章 深度学习模型ppt课件.pptx
《第5章 深度学习模型ppt课件.pptx》由会员分享,可在线阅读,更多相关《第5章 深度学习模型ppt课件.pptx(44页珍藏版)》请在三一办公上搜索。
1、,高级大数据人才培养丛书之一,大数据挖掘技术与应用,刘鹏 主编 赵海峰 副主编,BIG DATA,刘 鹏 张 燕 总主编,深度学习,全国高校标准教材xxx姊妹篇,剖析xxx技术和实战应用,绪论,of,47,2,5.1神经网络技术的历史与发展,第五章 深度学习模型,早期的神经网络是一个浅层的学习模型(包含一个输入层、一个隐层及一个输出层),它有大量的参数,在训练集上有较好的表现,但实际应用时其识别率并没有比其他模型(如支持向量机、Boosting等)体现出明显的优势神经网络在训练时采用误差反向传播算法(Back Propagation,简称BP算法),使用梯度下降方法在训练过程中修正权重减少网络
2、误差。在层次深的情况下性能变得很不理想,传播时容易出现所谓的梯度弥散Gradient Diffusion或称之为梯度消失(Vanishing Gradient Problem),根源在于非凸目标代价函数导致求解陷入局部最优,且这种情况随着网络层数的增加而更加严重,即随着梯度的逐层不断消散导致其对网络权重调整的作用越来越小。所以只能转而处理浅层结构(通常小于等于3),从而限制了神经网络的大范围应用。,of,47,3,5.1 概述-浅层神经网络,5.1神经网络技术的历史与发展,第五章 深度学习模型,2006年Hinton提出深度学习11后才被打破,深度神经网络的复兴存在多方面的原因其一,大规模的训
3、练样本可以缓解过拟合问题;其二,网络模型的训练方法也有了显著的进步;其三,计算机硬件的飞速发 展(如英伟达显卡的出现)使得训练效率能够以几倍、十几倍的幅度提升。此外,深度神经网络具有强大的特征学习能力, 过去几十年中,手工设计特征一直占据着主导地位,特征的好坏直接影响到系统的性能。,of,47,4,5.1 概述-深度学习模型,5.1神经网络技术的历史与发展,第五章 深度学习模型,面对一个新的任务,如果采用手工设计的方式,往往需要很长时间,而深度学习能很快提取到具有代表性的特征。另一方面,随着分类任务复杂性的增加,需要用到越来越多的参数及样本,虽然浅层神经网络也能模拟出与深度学习相同的分类函数,
4、但其所需的参数要多出几个数量级,以至于很难实现。,of,47,5,5.1 概述-深度学习模型,5.1神经网络技术的历史与发展,第五章 深度学习模型,学术界已经提出了多种深度学习模型,其中影响力较大的有以下几种(1)卷积神经网络:该网络一般包含三种类型的层,分别是卷积层、下采样层及全连接层。通过卷积核与上一层输出进行卷积作为卷积层的输出,这样可以达到权值共享的目的;下采样是在卷积层的基础上,在一个固定区域中采样一个点,使得整个网络具有一定的缩放、平移及形变不变性。(2)循环神经网络:该网络与传统前馈网络的区别在于,隐层的输入不仅包括输入层的数据,还包括前一时刻的隐层数据。这种结构的网络能有效处理
5、序列数据,如自然语言处理。(3)深度置信网络:该网络由若干层受限玻尔兹曼机及一个反向传播网络组成。,of,47,6,5.1 概述-深度学习模型,全国高校标准教材xxx姊妹篇,剖析xxx技术和实战应用,绪论,of,47,7,5.2卷积神经网络,第五章 深度学习模型,卷积神经网络(Convolutional neural networks, CNN)已在图像理解领域得到了广泛的应用,特别是随着大规模图像数据的产生以及计算机硬件(特别是GPU)的飞速发展, 卷积神经网络以及其改进方法在图像理解中取得了突破性的成果,引发了研究的热潮。,of,47,8,5.2 卷积神经网络,5.2卷积神经网络,第五章
6、深度学习模型,卷积神经网络(Convolutional neural networks, CNN)已在图像理解领域得到了广泛的应用,特别是随着大规模图像数据的产生以及计算机硬件(特别是GPU)的飞速发展, 卷积神经网络以及其改进方法在图像理解中取得了突破性的成果,引发了研究的热潮。,of,47,9,5.2 卷积神经网络,5.2卷积神经网络,第五章 深度学习模型,of,47,10,图5.1 卷积神经网络整体结构图,5.2卷积神经网络,第五章 深度学习模型,of,47,11,图5.2 卷积层,图5.3 图像卷积效果示意图,5.2卷积神经网络,第五章 深度学习模型,of,47,12,卷积计算的输出值
7、通常需要通过激励函数,实现非线性变换。,Sigmoid函数 ( Sigmoid Function ), Sigmoid 是常用的非线性的激活函数,它的数学形式如下:,Sigmoid函数,它能把实数(-,+)压缩到区间(0,1)之间,5.2卷积神经网络,第五章 深度学习模型,of,47,13,ReLU(Rectified Linear Units)函数,它的数学表达式如下:1维的情况下,当x0时,输出为输入。ReLU激励函数变的越来越受欢迎。ReLU的有效性体现在两个方面:1)克服梯度消失的问题;2)加快训练速度。,5.2卷积神经网络,第五章 深度学习模型,of,47,14,在深层卷积神经网络中
8、,可以通过设计多个卷积层,不同层可以提取到不同类型的特征用于最终分类任务。,5.2卷积神经网络,第五章 深度学习模型,of,47,15,池化层:池化层也属于中间层,也称采样层或抽样层,为特征映射层池化包括:最大池化或平均池化。,5.2卷积神经网络,第五章 深度学习模型,of,47,16,输出层:卷积神经网络的输出层与其他神经前馈神经网络一样,为全连接方式。,5.2卷积神经网络,第五章 深度学习模型,of,47,17,输出层:卷积神经网络的输出层与其他神经前馈神经网络一样,为全连接方式。全连接方式中输出值的计算:,5.2卷积神经网络,第五章 深度学习模型,of,47,18,神经网络有两类基本运算
9、模式:前向传播和反向传播。前向传播是指输入信号通过前一层中一个或多个网络层之间传递信号,然后在输出层得到输出的过程。反向传播算法是神经网络有监督学习中的一种常用方法,其目标是根据训练样本和期望输出来估计网络参数。卷积神经网络的训练卷积神经网络的训练要复杂一些。但训练的原理是一样的:利用链式求导计算损失函数对每个权重的偏导数(梯度),然后根据梯度下降公式更新权重。,5.2卷积神经网络,第五章 深度学习模型,of,45,19,反向传输调整权重反向传输过程是CNN最复杂的地方,虽然从宏观上来看基本思想跟BP一样,都是通过最小化残差来调整权重和偏置,但CNN的网络结构并不像BP网络那样单一,而且因为权
10、重共享,使得计算残差变得很困难。输出层的残差和BP一样,CNN的输出层的残差与中间层的残差计算方式不同,输出层的残差是输出值与类标值的误差值,而中间各层的残差来源于下一层的残差的加权和。本章以平方误差损失函数的多分类问题为例介绍反向传播算法算法。对于一个c个类和和N个训练样本的例子,总误差可以如下给出。,5.2卷积神经网络,第五章 深度学习模型,of,45,20,首先介绍网络第l层的灵敏度的计算方法(Sensitivity),描述了总误差E怎样随着净激活值而变化反向传播算法实际上通过所有网络层的灵敏度来计算总误差对所有网络参数的偏导数从而计算使得训练误差减小的方向。,5.2卷积神经网络,第五章
11、 深度学习模型,of,45,21,卷积层l的灵敏度需要用下一层池化层l+1的灵敏度表示卷积层l的灵敏度,然后计算总误差E对卷积层参数(卷积核参数k、偏置参数b)的偏导数。通过链式求导可得第l层中第j个通道的灵敏度:其中,表示每个向量与矩阵相乘。若池化层采样因子为n,则将每个像素在水平和垂直方向上复制n次,于是就可以从l+1层的灵敏度上采样成卷积层l的灵敏度,5.2卷积神经网络,第五章 深度学习模型,of,45,22,使用灵敏度计算卷积层l中的参数(卷积核参数k、偏置参数b)的偏导,分两种情况。情况1:对于总误差E对偏移量的偏导,可以对卷积层l的灵敏度中所有结点进行求和运算:情况2:对于总误差关
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第5章 深度学习模型ppt课件 深度 学习 模型 ppt 课件

链接地址:https://www.31ppt.com/p-1428810.html