人工智能之支持向量机ppt课件.ppt
《人工智能之支持向量机ppt课件.ppt》由会员分享,可在线阅读,更多相关《人工智能之支持向量机ppt课件.ppt(51页珍藏版)》请在三一办公上搜索。
1、支持向量机 Support Vector Machines,内容提要,统计学习方法概述统计学习问题学习过程的泛化能力支持向量机SVM寻优算法应用,支持向量机,SVM是一种基于统计学习理论的机器学习方法,它是由Boser,Guyon, Vapnik在COLT-92上首次提出,从此迅速发展起来Vapnik V N. 1995. The Nature of Statistical Learning Theory. Springer-Verlag, New York Vapnik V N. 1998. Statistical Learning Theory. Wiley-Interscience Pu
2、blication, John Wiley&Sons, Inc目前已经在许多智能信息获取与处理领域都取得了成功的应用。,支持向量机 SVM,SVMs are learning systems that use a hyperplane of linear functionsin a high dimensional feature space Kernel functiontrained with a learning algorithm from optimization theory LagrangeImplements a learning bias derived from stati
3、stical learning theory Generalisation SVM is a classifier derived from statistical learning theory by Vapnik and Chervonenkis,2,5,线性分类器,a,yest,2,6,线性分类器,f,x,a,yest,denotes +1denotes -1,f(x,w,b) = sign(w. x - b),How would you classify this data?,2,7,线性分类器,f,x,a,yest,denotes +1denotes -1,f(x,w,b) = si
4、gn(w. x - b),How would you classify this data?,2,8,线性分类器,f,x,a,yest,denotes +1denotes -1,f(x,w,b) = sign(w. x - b),How would you classify this data?,2,9,线性分类器,f,x,a,yest,denotes +1denotes -1,f(x,w,b) = sign(w. x - b),How would you classify this data?,哪一个分界面是最优的?,2,10,分类超平面,Training set: (xi, yi), i=
5、1,2,N; yi+1,-1Hyperplane: wx+b=0This is fully determined by (w,b),w1x+b1=0,w2x+b2=0,w3x+b3=0,2,11,最大间隔,一个超平面,如果它能将训练样本没有错误地分开,并且两类训练样本中离超平面最近的样本与超平面之间的距离是最大的,则把这个超平面称作最优分类超平面(optimal separating hyperplane),两类样本中离分类面最近的样本到分类面的距离称为分类间隔,最优超平面也可以称作最大间隔超平面。,2,12,最大间隔原则,Note1: decision functions (w,b) and
6、 (cw, cb) are the sameNote2: but margins as measured by the outputs of the function xwx+b are not the same if we take (cw, cb).Definition: geometric margin: the margin given by the canonical decision function, which is when c=1/|w| Strategy: 1) we need to maximise the geometric margin! (cf result fr
7、om learning theory)2) subject to the constraint that training examples are classified correctly,w,wx+b=0,wx+b0,wx+b0,2,13,支持向量,The training points that are nearest to the separating function are called support vectors.What is the output of our decision function for these points?,2,14,分类问题的数学表示,已知:训练
8、集包含 个样本点:说明: 是输入指标向量,或称输入,或称模式,其分量称为特征,或属性,或输入指标; 是输出指标,或输出. 问题:对一个新的模式 ,推断它所对应的输出 是1还是-1.实质:找到一个把 上的点分成两部分的规则.,2维空间上的分类问题) n维空间上的分类问题.,2,15,根据给定的训练集其中, ,寻找 上的一个实值函数 ,用决策函数判断任一模式 对应的 值.sgn()为符号函数,取自变量的符号。 可见,分类学习机构造决策函数的方法(算法), 两类分类问题 多类分类问题 线性分类学习机 非线性分类学习机,分类学习方法,2,16,SVM分类问题大致有三种:线性可分问题、近似线性可分问题、
9、线性不可分问题。,分类学习方法,Chap8 SVM Zhongzhi Shi,2,17,考虑 上的线性可分的分类问题.这里有许多直线 能将两类点正确分开.如何选取 和 ?简单问题:设法方向 已选定,如何选取 ?解答: 选定 平行直线 极端直线 和 取 和 的中间线为分划直线如何选取 ?对应一个 ,有极端直线 ,称 和 之间的距离为“间隔”.显然应选使“间隔”最大的 。,最大间隔法的直观导出,2,18,数学语言描述,调整 ,使得,令 ,则两式可以等价写为,与此相应的分划直线表达式:,给定适当的法方向 后,这两条极端直线 可表示为,Chap8 SVM Zhongzhi Shi,2,19,如何计算分
10、划间隔?考虑2维空间中极端直线之间的间隔情况,求出两条极端直线的距离:,Chap8 SVM Zhongzhi Shi,2,20,Margin =,H1平面:,H2平面:,.(2),.(1),Chap8 SVM Zhongzhi Shi,2,21,分划直线表达式为 “间隔” 为极大化“间隔”的思想导致求解下列对变量 和 的最优化问题说明:只要我们求得该问题的最优解 ,从而构造分划超平面 ,求出决策函数 。上述方法对一般 上的分类问题也适用.,原始问题,Chap8 SVM Zhongzhi Shi,2,22,求解原始问题,为求解原始问题,根据最优化理论,我们转化为对偶问题来求解,对偶问题,为原始问
11、题中与每个约束条件对应的Lagrange乘子。这是一个不等式约束条件下的二次函数寻优问题,存在唯一解,2,23,线性可分问题,计算 ,选择 的一个正分量 , 并据此计算,事实上, 的每一个分量 都与一个训练点相对应。而分划超平面仅仅依赖于 不为零的训练点 ,而与对应于 为零的那些训练点无关。,称 不为零的这些训练点的输入 为支持向量(SV),构造分划超平面 ,决策函数,根据最优解,2,24,近似线性可分问题,不要求所有训练点都满足约束条件 ,为此对第 个训练点 引入松弛变量(Slack Variable) ,把约束条件放松到 。,体现了训练集被错分的情况,可采用 作为一种度量来描述错划程度。,
12、两个目标:1. 间隔 尽可能大 2. 错划程度 尽可能小,显然,当 充分大时,样本点 总可以满足以上约束条件。然而事实上应避免 太大,所以需在目标函数对 进行惩罚,(即“软化” 约束条件),Chap8 SVM Zhongzhi Shi,2,25,因此,引入一个惩罚参数 ,新的目标函数变为:,体现了经验风险,而 则体现了表达能力。所以惩罚参数 实质上是对经验风险和表达能力匹配一个裁决。当 时,近似线性可分SVC的原始问题退化为线性可分SVC的原始问题。,近似线性可分问题,Chap8 SVM Zhongzhi Shi,2,26,(广义)线性支持向量分类机算法,设已知训练集 ,其中,2. 选择适当的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 支持 向量 ppt 课件

链接地址:https://www.31ppt.com/p-1657692.html