SPSS统计分析-第六章-回归分析.ppt
《SPSS统计分析-第六章-回归分析.ppt》由会员分享,可在线阅读,更多相关《SPSS统计分析-第六章-回归分析.ppt(47页珍藏版)》请在三一办公上搜索。
1、第六章 回归分析,变量之间的联系,确定型的关系:指某一个或某几个现象的变动必然会引起另一个现象确定的变动,他们之间的关系可以使用数学函数式确切地表达出来,即y=f(x)。当知道x的数值时,就可以计算出确切的y值来。如圆的周长与半径的关系:周长=2r。非确定关系:例如,在发育阶段,随年龄的增长,人的身高会增加。但不能根据年龄找到确定的身高,即不能得出11岁儿童身高一定就是1.40米公分。年龄与身高的关系不能用一般的函数关系来表达。研究变量之间既存在又不确定的相互关系及其密切程度的分析称为相关分析。,回归分析,如果把其中的一些因素作为自变量,而另一些随自变量的变化而变化的变量作为因变量,研究他们之
2、间的非确定因果关系,这种分析就称为回归分析。回归分析是研究一个自变量或多个自变量与一个因变量之间是否存在某种线性关系或非线性关系的一种统计学方法。,线性回归分析;曲线回归分析;二维Logistic回归分析;多维Logistic回归分析;概率单位回归分析;非线性回归分析;权重估计分析;二阶段最小二乘分析;最优编码回归。,一、线性回归,(一)一元线性回归方程直线回归分析的任务就是根据若干个观测(xi,yi)i=1n找出描述两个变量x、y之间关系的直线回归方程y=a+bx。y是变量y的估计值。求直线回归方程y=a+bx,实际上是用回归直线拟合散点图中的各观测点。常用的方法是最小二乘法。也就是使该直线
3、与各点的纵向垂直距离最小。即使实测值y与回归直线y之差的平方和(y-y)2达到最小。(y-y)2也称为剩余(残差)平方和。因此求回归方程y=a+bx的问题,归根到底就是求(y-y)2取得最小值时a和b的问题。a称为截距,b为回归直线的斜率,也称回归系数。,1、一元线性回归方程的适用条件,线形趋势:自变量与因变量的关系是线形的,如果不是,则不能采用线性回归来分析。独立性:可表述为因变量y的取值相互独立,它们之间没有联系。反映到模型中,实际上就是要求残差间相互独立,不存在自相关。正态性:自变量x的任何一个线形组合,因变量y均服从正态分布,反映到模型中,实际上就是要求随机误差项i服从正态分布。方差齐
4、性:自变量的任何一个线形组合,因变量y的方差均齐性,实质就是要求残差的方差齐。,2、一元线性回归方程的检验,检验的假设是总体回归系数为0。另外要检验回归方程对因变量的预测效果如何。(1)回归系数的显著性检验对斜率的检验,假设是:总体回归系数为0。检验该假设的t值计算公式是;t=b/SEb,其中SEb是回归系数的标准误。对截距的检验,假设是:总体回归方程截距a=0。检验该假设的t值计算公式是:t=a/SEa,其中SEa是截距的标准误。,(2)R2判定系数,在判定一个线性回归直线的拟合度的好坏时,R2系数是一个重要的判定指标。R2判定系数等于回归平方和在总平方和中所占的比率,即R2体现了回归模型所
5、能解释的因变量变异性的百分比。如果R2=0.775,则说明变量y的变异中有77.5是由变量X引起的。当R21时,表示所有的观测点全部落在回归直线上。当R2=0时,表示自变量与因变量无线性关系。为了尽可能准确的反应模型的拟合度,SPSS输出中的Adjusted R Square是消除了自变量个数影响的R2的修正值。,(3)方差分析,体现因变量观测值与均值之间的差异的偏差平方和SSt是由两个部分组成:SSt=SSrSSeSSr:回归平方和,反应了自变量X的重要程度;SSe:残差平方和,它反应了实验误差以及其他意外因素对实验结果的影响。这两部分除以各自的自由度,得到它们的均方。统计量F=回归均方残差
6、均方。当 F值很大时,拒绝接受b=0的假设。,(4)DurbinWatson检验,在对回归模型的诊断中,有一个非常重要的回归模型假设需要诊断,那就是回归模型中的误差项的独立性。如果误差项不独立,那么对回归模型的任何估计与假设所作出的结论都是不可靠的。其参数称为DW或D。D的取值范围是0D4,统计学意义如下:当残差与自变量互为独立时D2;当相邻两点的残差为正相关时,D2,(5)残差图示法,在直角坐标系中,以预测值y为横轴,以y与y之间的误差et为纵轴(或学生化残差与拟和值或一个自变量),绘制残差的散点图。如果散点呈现出明显的规律性则,认为存在自相关性或者非线性或者非常数方差的问题。,(二)多元线
7、性回归,多元线性回归:根据多个自变量的最优组合建立回归方程来预测因变量的回归分析称为多元回归分析。多元回归分析的模型为:y=b0+b1x1+b2x2+bnxn 其中y为根据所有自变量x计算出的估计值,b0为常数项,b1、b2 bn称为y对应于x1、x2 xn的偏回归系数。偏回归系数表示假设在其他所有自变量不变的情况下,某一个自变量变化引起因变量变化的比率。多元线性回归模型也必须满足一元线性回归方程中所述的假设理论。,2.多元线性回归分析中的参数,(l)复相关系数 R复相关系数表示因变量 xi 与他的自变量y之间线性相关密切程度的指标,复相关系数使用字母R表示。复相关系数的取值范围在01之间。其
8、值越接近1表示其线性关系越强,越接近0表示线性关系越差。,(2)R2判定系数与经调整的判定系数,与一元回归方程相同,在多元回归中也使用判定系数R2来解释回归模型中自变量的变异在因变量变异中所占比率。但是,判定系数的值随着进入回归方程的自变量的个数(或样本容量的大小n)的增加而增大。因此,为了消除自变量的个数以及样本量的大小对判定系数的影响,引进了经调整的判定系数(Adjusted R Square)。,K为自变量的个数,n为观测量数目。自变量的个数大于1时,其值小于判定系数。自变量个数越多,与判定系数的差值越大。,(3)零阶相关系数、部分相关与偏相关系数,零阶相关系数(ZeroOrder)计算
9、所有自变量与因变量之间的简单相关系数。部分相关(Part Correlation)表示:在排除了其他自变量对 xi的影响后,当一个自变量进入回归方程模型后,复相关系数的平均增加量。偏相关系数(Partial Correlation)表示:在排除了其他变量的影响后;自变量 Xi与因变量y之间的相关程度。部分相关系数小于偏相关系数。偏相关系数也可以用来作为筛选自变量的指标,即通过比较偏相关系数的大小判别哪些变量对因变量具有较大的影响力。,3、多元线性回归分析的检验,建立了多元回归方程后,需要进行显著性检验,以确认建立的数学模型是否很好的拟和了原始数据,即该回归方程是否有效。利用残差分析,确定回归方
10、程是否违反了假设理论。对各自变量进行检验。其假设是总体的回归方程自变量系数或常数项为0。以便在回归方程中保留对因变量y值预测更有效的自变量。以便确定数学模型是否有效。,(l)方差分析,多元回归方程也采用方差分析方法对回归方程进行检验,检验的H0假设是总体的回归系数均为0(无效假设),H1假设是总体的回归系数不全为0(备选假设)。它是对整个回归方程的显著性检验。使用统计量F进行检验。原理与一元回归的方程分析原理相同。,(2)偏回归系数与常数项的检验,在多元回归分析中,可能有的自变量对因变量的影响很强,而有的影响很弱,甚至完全没有作用,这样就有必要对自变量进行选择,使回归方程中只包含对因变量有统计
11、学意义的自变量;检验的假设是:各自变量回归系数为0,常数项为0。它使用的统计量是t;t=偏回归系数/偏回归系数的标准误,(3)方差齐性检验,方差齐性是指残差的分布是常数,与预测变量或因变量无关。即残差应随机的分布在一条穿过0点的水平直线的两侧。在实际应用中,一般是绘制因变量预测值与学生残差的散点图。在线性回归Plots对话框中的源变量表中,选择SRESID(学生氏残差)做Y轴;选择ZPRED(标准化预测值)做X轴就可以在执行后的输出信息中显示检验方差齐性的散点图。,共线性诊断,在回归方程中,虽然各自变量对因变量都是有意义的,但某些自变量彼此相关,即存在共线性的问题。给评价自变量的贡献率带来困难
12、。因此,需要对回归方程中的变量进行共线性诊断;并且确定它们对参数估计的影响。当一组自变量精确共线性时,必须删除引起共线性的一个和多个自变量,否则不存在系数唯一的最小二乘估计。因为删除的自变量并不包含任何多余的信息,所以得出的回归方程并没有失去什么。当共线性为近似时,一般是将引起共线性的自变量删除,但需要掌握的原则是:务必使丢失的信息最少。,进行共线性论断常用的参数有,(l)容许度(Tolerance)在只有两个自变量的情况下,自变量X1与X2之间共线性体现在两变量间相关系数r12上。精确共线性时对应r1221,当它们之间不存在共线性时r1220。r122越接近于1,共线性越强。多于两个自变量的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- SPSS 统计分析 第六 回归 分析
链接地址:https://www.31ppt.com/p-5449257.html