《深度神经网络》PPT课件.ppt
《《深度神经网络》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《深度神经网络》PPT课件.ppt(82页珍藏版)》请在三一办公上搜索。
1、深度神经网络 IDeep Neural Networks,中国科学院自动化研究所吴高巍2016-12-6,内容,深度神经网络发展历史、背景动机Why Deep Learning?深度学习常用模型,Neural networkBack propagation,1986,解决了一般性学习问题 与生物系统相联系,Nature,历史,Neural networkBack propagation,1986,Nature,历史,Neural networkBack propagation,1986,解决了一般性学习问题 与生物系统相联系,Nature,历史,But it is given up,SVMBo
2、ostingDecision tree,2006,Neural networkBack propagation,1986,Nature,历史,2006,Deep belief netScience,Unsupervised&Layer-wised pre-trainingBetter designs for modeling and training(normalization,nonlinearity,dropout)New development of computer architecturesGPUMulti-core computer systemsLarge scale datab
3、ases,Big Data!,Neural networks is coming back!,深度学习浪潮,IT Companies are Racing into Deep Learning,Neural networkBack propagation,1986,Solve general learning problems Tied with biological system,But it is given up,2006,Deep belief netScience,Speech,2011,Nature,Object recognition over 1,000,000 images
4、and 1,000 categories(2 GPU),Neural networkBack propagation,1986,2006,Deep belief netScience,Speech,2011,2012,Nature,A.Krizhevsky,L.Sutskever,and G.E.Hinton,“ImageNet Classification with Deep Convolutional Neural Networks,”NIPS,2012.,Neural networkBack propagation,1986,2006,Deep belief netScience,Spe
5、ech,2011,2012,ImageNet 2013 image classification challenge,MSRA,IBM,Adobe,NEC,Clarifai,Berkley,U.Tokyo,UCLA,UIUC,Toronto.Top 20 groups all used deep learning,ImageNet 2013 object detection challenge,Neural networkBack propagation,1986,2006,Deep belief netScience,Speech,2011,2012,ImageNet 2014 Image
6、classification challenge,ImageNet 2014 object detection challenge,Neural networkBack propagation,1986,2006,Deep belief netScience,Speech,2011,2012,Google and Baidu announced their deep learning based visual search engines(2013)Google“on our test set we saw double the average precision when compared
7、to other approaches we had tried.We acquired the rights to the technology and went full speed ahead adapting it to run at large scale on Googles computers.We took cutting edge research straight out of an academic research lab and launched it,in just a little over six months.”Baidu,Neural networkBack
8、 propagation,1986,2006,Deep belief netScience,Speech,2011,2012,Face recognition,2014,Deep learning achieves 99.53%face verification accuracy on Labeled Faces in the Wild(LFW),higher than human performance,Y.Sun,X.Wang,and X.Tang.Deep Learning Face Representation by Joint Identification-Verification.
9、NIPS,2014.,Y.Sun,X.Wang,and X.Tang.Deeply learned face representations are sparse,selective,and robust.CVPR,2015.,深度学习浪潮,Deep Learning,深度学习浪潮,时代背景-数据爆炸,还存在很多没有良好解决的问题,例如图像识别、语音识别、自然语言理解、天气预测、基因表达、内容推荐等。,深度学习浪潮,时代背景-计算性能提升,动机Why Deep Learning?,深度学习,What is Deep Learning?,“Deep learning is a set of al
10、gorithms in machine learning that attempt to learn in multiple levels,corresponding to different levels of abstraction.It typically uses artificial neural networks.The levels in these learned statistical models correspond to distinct levels of concepts,where higher-level concepts are defined from lo
11、wer-level ones,and the same lower-level concepts can help to define many higher-level concepts.”(Oct.2013.),“Deep learning is a set of algorithms in machine learning that attempt to model high-level abstractions in data by using model architectures composed of multiple non-linear transformations.”(A
12、ug.2014),传统机器学习,解决这些问题的思路良好的特征表达,对最终算法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都耗在这一大部分。但实际中一般都是人工完成的。,特征表达,能不能自动地学习一些特征呢?,能!Deep Learning,生物学启示,人脑视觉机理“视觉系统的信息处理”:可视皮层是分级的神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。关键词:一个是抽象,一个是迭代。从原始信号,做低级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象的概念。,不同水平的抽象,层次化表示,脑的深层结构,why go deep?,深层结构能够有效被表达对相同的函数
13、需要更少的计算单元深层结构可产生层次化特征表达允许非局部扩展可解释性多层隐变量允许统计上的组合共享深层结构有效(vision,audio,NLP等)!,Computer Vision Features,Audio Features,Deep Learning 基本思想,自动地学习特征假设有一堆输入I(如图像或者文本),我们设计了一个系统S(有n层),通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,,Sn。对于深度学习来说,其思想就是堆叠多个层也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。可以略微
14、地放松“输出等于输入”的限制,深层 vs 浅层神经网络,多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类深层网络结构中,高层可以综合应用低层信息低层关注“局部”,高层关注“全局”、更具有语义化深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wise pre-training)来有效克服。为自适应地学习非线性处理过程提供了一种可能的简洁、普适的结构模型,深层 vs 浅层神经网络,“深度模型”是手段,“特征学习”是目的。强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;明确突出了特征学习的重要性,也就是说,通过逐层
15、特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。,BP算法的问题,需要带标签训练数据几乎所有的数据是无标签的人脑可以从无标签数据中学习局部极小对深层网络远离了最优解学习时间不适合大数据梯度消失Below top few layers,correction signal is minimal,克服BP的限制,梯度方法对输入的结构建模建立产生输入的生成式模型,调整参数使得生成式模型的概率最大Learn p(image)not p(label|image),What kind of g
16、enerative model should we learn?,Deep learning训练,自下向上的非监督学习(greedy layer-wise training)自顶向下的监督学习就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调微调特征(中间层),使得与问题更相关。,Deep Learning的常用模型 AutoEncoder自动编码器,AutoEncoder自动编码器,Deep Learning最简单的一种方法利用人工神经网络本身的层次结构特点如果给定一个神经网络,假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,就得到了输入I的几种不同表示(
17、每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分,AutoEncoder自动编码器,学习过程无标签数据,用非监督学习学习特征,在之前的前向神经网络中,如左图,输入的样本是有标签的,即(input,target),这样根据当前输出和target(label)之间的差去改变前面各层的参数,直到收敛。但现在我们只有无标签数据,也就是右边的图。那么这个误差怎么得到呢?,AutoEncoder自动编码器,将input输入一个encoder编码器,就会得
18、到一个code,这个code也就是输入的一个表示那么我们怎么知道这个code表示的就是input呢?增加一个decoder解码器decoder输出的信息 vs 开始的输入信号input通过调整encoder和decoder的参数,使得重构误差最小,这样就得到输入input信号的一个表示了,也就是编码code。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。,AutoEncoder自动编码器,网络结构三层结构输入层,隐藏层,输出层神经元模型限定神经元的数量输入层神经元数=输出层神经元数隐层神经元数量输入层神经元数量,意义:迫使隐藏层节点学习得到输入数据的压缩表示方法,AutoEn
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度神经网络 深度 神经网络 PPT 课件
链接地址:https://www.31ppt.com/p-5676260.html