多元线性回归模型ppt课件.ppt
《多元线性回归模型ppt课件.ppt》由会员分享,可在线阅读,更多相关《多元线性回归模型ppt课件.ppt(281页珍藏版)》请在三一办公上搜索。
1、2022/12/24,1,计量经济学,第四章 多元线性回归模型,2022/12/24,2,在本章将把一元线性回归模型推广到多元线性回归模型,即在模型中将包含二个以上的解释变量。多元线性回归模型是实践中广泛应用的模型。我们从简单的双解释变量多元线性回归模型入手,然后再将其推广到三个及三个以上解释变量的多元线性回归模型。,预测大学足球比赛的获胜得分差额,为检验一场大学足球比赛中“争球码数”、“传球码数”、“回传次数”、“控球时间”以及“主场优势”等变量对比赛最后得分的影响,分析人员建立了一个多元线性回归模型。该模型的因变量是“比赛的获胜得分差额”,它等于胜方的最后得分减去负方的最后得分从高校体育协
2、会前20名球队的比赛中随机抽取了90场,收集到自变量和因变量的数据,并进行多元回归分析,得到的回归结果如右表,2022/12/24,4,主要内容第一节 多元回归模型的定义第二节 最小二乘估计第三节 多元线性回归模型的检验第四节 回归模型的函数形式第五节 多元回归模型的设定偏误第六节 多重共线性,2022/12/24,5,第一节 多元回归模型的定义,一、多元回归模型的意义,在一元线性回归模型中,我们假定影响被解释变量的因素只有一个,即解释变量X,这种情形在经济计量分析中往往是不适宜的。因为在经济系统中,影响被解释变量的重要变量往往不只一个。,2022/12/24,6,例如在收入消费模型中,除了收
3、入影响消费外,还有其它因素明显地影响消费,很明显财富就是影响消费的重要变量。在劳动力市场上,影响工资的变量不仅仅是工作年限,受教育程度也是影响工资的一个重要变量。因此,在回归分析模型中,就需要引进更多的解释变量。,2022/12/24,7,多元回归分析与一元回归分析相比有如下优点,1多元回归分析可以研究多个影响因素对被解释变量的影响。 2在回归模型中增加一些有助于解释Y 的因素, 的变动就能更好地予以解释。因此,多元回归分析有助于更好地预测 Y 。,2022/12/24,8,3多元回归模型更具有一般性。一元回归模型中,只能有一个解释变量,其函数形式不一定恰当。而多元回归模型具有较大的灵活性,有
4、利于对总体回归模型做出正确的判断。,多元回归模型是经济学和其它社会科学进行计量分析时使用最为广泛的一个工具。,2022/12/24,9,含有两个解释变量的多元回归模型是最简单的多元回归模型。模型形式为,二、含有两个解释变量的多元回归模型,(4.1),其中,Yi 是被解释变量,X2i 和X3i 是解释变量,ui是随机干扰项,i 指第i 项观测。,2022/12/24,10,2022/12/24,11,系数 和 为偏回归系数, 表示在保持X3不变的条件下,X2每变化一个单位时,Y的均值的变化。类似地, 表示在保持X2不变的条件下,X3每变化一个单位时,Y的均值的变化。,2022/12/24,12,
5、例如在汽车需求分析中,可设定模型为,(4.2),其中,Yt 汽车需求量,Pt 汽车价格,It 居民收入。t 代表第t 次观测。式(4.2)中,汽车需求量主要受到价格和收入这两个变量的影响。,2022/12/24,13,又如在劳动力市场中,工资水平模型为,(4.3),其中,Wi工资,Ei 受教育水平,EPi 工作经验。式(4.3)表示工资水平主要受受教育水平和工作经验两个变量的影响。,2022/12/24,14,在含有两个解释变量的多元回归模型中,经典线性回归模型的假定条件如下。,假定1:ui 零均值假定,E(ui|X2i, X3i)0对每个i,(4.4),2022/12/24,15,假定3:u
6、i 无序列相关假定,Cov(ui, uj)0ij,(4.6),假定2:ui 同方差假定,(4.5),2022/12/24,16,假定4:ui 与每一个解释变量无关,(4.7),假定5:无设定偏误,2022/12/24,17,2022/12/24,18,三、含有多个解释变量的模型,多个解释变量的多元回归模型是一元回归模型和二元回归模型的推广。含被解释变量Y 和k-1个解释变量X2,X3,Xk 的多元总体回归模型表示如下:,2022/12/24,19,2022/12/24,20,式(4.9)的均值表达式为,i1, 2, , n,(4.10),2022/12/24,21,把式(4.10)表示为增量形
7、式则为,(4.11),X2的系数 的意义为:在所有其它变量X3i,X4i,Xki 保持不变的条件下,X2改变一个单位而导致Yi 的均值的变化量。,2022/12/24,22,即在保持X3,X4,Xk 不变的条件下,有:,(4.12),其它斜率系数的意义与此类似。,2022/12/24,23,例如,在汽车需求分析中,要研究竞争性市场中某一品牌汽车的需求。据需求理论,影响汽车需求的因素除了价格和收入外,还有与之竞争的其它品牌汽车的价格。 因此,该品牌汽车的需求模型为,(4.13),2022/12/24,24,式(4.13)中,Yt 某品牌汽车需求量,Pt 该品牌汽车价格,It 居民收入, 竞争性品
8、牌汽车的价格。 代表当居民收入It 与竞争性品牌汽车价格不变时,该品牌汽车价格降低1元,需求量增加的数量。,2022/12/24,25,四、多元线性回归模型的矩阵表示,K-1个解释变量的多元线性回归模型的 次观测数据,可表示为,2022/12/24,26,用矩阵表示,2022/12/24,27,2022/12/24,28,第二节 最小二乘估计,2022/12/24,29,根据最小二乘准则,应选择使残差平方和最小的 。在给定Y,X1和X2的n个观测值时,同时选择 使下式取最小值。,(4.15),2022/12/24,30,2022/12/24,31,2022/12/24,32,(4.18),20
9、22/12/24,33,2022/12/24,34,用矩阵表示因为样本回归函数为 两边左乘 ,有:因为 ,则正规方程为:,2022/12/24,35,如果使用普通最小二乘法而得到了式(4.16)的样本回归函数,我们就称其为:将Y 对X2, X3, , Xk 进行了回归。,2022/12/24,36,【例4.1】 工资回归模型,利用横截面数据估计参数得到如下包含三个解释变量的模型。,Ln(Y)=0.284+0.092X2+0.0041X3+0.022X4,(4.19),式中,Y工资,X2受教育年限,X3工龄,X4现任职务的任期。,2022/12/24,37,在式(4.19)中,系数0.092表示
10、在保持X3和X4固定不变的情况下,劳动者多受一年教育,Ln(Y)增加0.092,即工资增长9.2%。也就是说,如果有两个劳动者具有同样的工龄和现职任期,在受教育水平相差一年时,X2的系数表示了预计工资的差别。,2022/12/24,38,二、判定系数R2及调整的判定系数,(一)判定系数R2,在一元回归模型中,判定系数R2是回归方程拟合优度的一个度量;它给出了在被解释变量Y的总变差中由(一个)解释变量X解释了的比例或百分比。,2022/12/24,39,将其推广到多元回归模型中,判定系数依然为解释平方和ESS与总平方和TSS的比值,即:,(4.20),2022/12/24,40,判定系数R2的一
11、个重要性质是:在回归模型中增加一个解释变量后,它不会减少,而且通常会增大。即R2是回归模型中解释变量个数的非减函数。,(二)调整的判定系数,2022/12/24,41,2022/12/24,42,为了消除解释变量个数对判定系数R2的影响,需使用调整后的判定系数:,(4.21),式中,k 为包括截距项在内的模型中的参数个数。在二元回归模型中k3,在一元回归模型中 k2。,2022/12/24,43,所谓调整,就是指 的计算式中的 和 都用它们的自由度(nk)和(n1)去除。,2022/12/24,44,2022/12/24,45,在回归分析中,我们的目的并不是为了得到一个高的 ,而是要得到真实总
12、体回归系数的可靠估计并做出有关的统计推断。在实证分析中,经常碰到有着较高的 ,但某些回归系数在统计上不显著的回归模型,这样的模型是没有应用价值的。,(三)回归分析中 的应用,2022/12/24,46,所以,我们应更加关心解释变量对被解释变量的理论关系和统计显著性。如果在其它条件相同的条件下,得到一个较高 ,当然很好;如果 偏低,也不能说明模型不好。在经典线性回归模型中,并不要求 一定是较高的。,2022/12/24,47,【例4.2】 大学平均成绩的决定因素,根据某大学141名学生的样本,以大学平均成绩Y 为被解释变量,高中平均成绩X1和大学能力测验分数X2为解释变量,用普通最小二乘法得到样
13、本回归模型为,式(4.23)中,R20.176,n141。,(4.23),2022/12/24,48,截距项1.29没有实际意义。因为,没有人在高中时的成绩为0、测验成绩也为0时进入大学。R20.176意味着,高中平均成绩X1和大学能力测验分数X2一起解释这个学生样本中大学平均成绩Y 的方差的17.6%。这个比例虽然不高,但不能判定模型不好。因为影响一个学生大学表现的因素还有很多,包括家庭背景、个性、高中教育的质量和对大学专业的喜恶等。,2022/12/24,49,三、最小二乘估计量的期望值和方差,(一)偏回归系数 的期望值,在多元回归模型满足经典假定的条件下,普通最小二乘估计量是总体参数的无
14、偏估计。即:,j1, 2, , k,(4.24),2022/12/24,50,对这一结果有直接影响的假定为E(ui)0,随机扰动项的期望值为0和Cov(Xi, ui)0,X 非随机并与扰动项u 不相关。,2022/12/24,51,在多元回归分析中,如果回归模型的函数形式设定有误或遗漏了与包含在模型中的变量相关的重要解释变量,都会导致经典假定E(ui)0不成立,即E(ui)0。如此,则使得最小二乘估计量 不是总体参数的无偏估计,即 。,2022/12/24,52,虽然在多元回归分析中,模型的函数形式更多,包含的变量数也较多,相对于一元回归分析,出现函数形式设定偏误和遗漏重要解释变量的可能性较小
15、。但是,在一项应用研究中,由于理论的含糊性或数据的局限性,总有一些重要解释变量不能包含到回归模型中。如此,则会破坏普通最小二乘估计的无偏性。,2022/12/24,53,无偏性不是针对某一特定样本而言的,而是指将普通最小二乘法用于各种可能的随机样本时,这种方法得到的结果是无偏的。,关于Cov(Xi, ui)0假定不能满足,从而破坏无偏性,我们将在后面章节讨论它。,2022/12/24,54,2022/12/24,55,因为一个估计值是从一个特定的样本得到的一个固定数,它也许等于总体参数,也许不等于总体参数,我们无法判定。虽然我们总是希望得到最接近总体真实性的估计值,但最小二乘法并不能保证这一点
16、。,2022/12/24,56,(二) 的方差和标准误,的期望值度量了 的集中趋势。而 的方差则度量了 围绕其期望值的集中程度,也就是度量了 的估计精度。,2022/12/24,57,2022/12/24,58,具有非常重要的指导意义。方差越大,则意味着估计量越不精确。,的方差取决于如下三个因素: 。脚标 j 表示第j 个解释变量。,2022/12/24,59,2022/12/24,60,回归模型的干扰项u是对回归结果的干扰,干扰 越大,使得估计任何一个解释变量对Y 的局部影响就越困难。由于 是总体的一个特征,所以它与样本容量无关。,2022/12/24,61, 与Xj 的总样本变异SSTj
17、成反比;总样本变异SSTj 越大, 的方差越小。,2022/12/24,62,2022/12/24,63, 与解释变量之间的线性关联程度 正 相 关; 越大, 的方差 越大。,2022/12/24,64,在一元回归模型中,只有一个解释变量,不存在这一问题。这里的 与Y 无关,它只涉及到原模型中的解释变量X2, X3, , Xk,其中Xj 作为被解释变量,其它解释变量作为解释变量。,2022/12/24,65,在二元回归模型: 中, 的方差为,(4.26),是X2对X3(含截距)进行一元回归所得到的R2。,2022/12/24,66,由于R2度量了拟合优度,所以当 接近于1时,则表明在这个样本中
18、,X3解释了X2的大部分变动,就是说X2与X3高度相关。随着 的逐渐增加, 会越来 越大。因此,X2与X3之间的线性关系越密切,斜率系数的普通最小二乘估计量的方差就越大。,2022/12/24,67,对于一般情况,Rj2 是Xj 总变异中由模型中包括的其它解释变量解释的部分。也就是Xj 与其它解释变量之间的线性关联程度,关联程度越高,方差就越大;关联程度越小,方差就越小。,2022/12/24,68,最理想的情形是 0,但这种情形是难以碰到的。在所有其它条件都不变的 情况下,就估计 来说,Xj 与其它解释变量之间关联程度越低越好。,2022/12/24,69,其中,X3与X4高度相关,则 和
19、都很大。,另外,在多元回归模型中,某些解释变量之间的高度相关不影响模型中其它参数的估计方差。例如,有一个三个解释变量的模型:,(4.27),2022/12/24,70,但X3与X4之间的相关程度对 没有直接影响。如果X2与X3、X4无关,则无论X3与X4如何相关,都有 和 。如果我们所关心的是参数 ,我们可以不管X3与X4之间的相关程度。,2022/12/24,71,将 开方,则得 的标准误:,(4.28),2022/12/24,72,2022/12/24,73,2022/12/24,74,正的平方根被称为回归标准误。该估计值在 EViews 计量分析软件的输出结果中直接给出,表示为: .E.
20、 of regression,该估计值的引用格式为:方程名称.se。,2022/12/24,75,四、最小二乘估计量的性质,在多元回归模型中,最小二乘估计量同样具有一元回归中的优良性质。高斯马尔可夫定理对此给予了精辟的阐述。,2022/12/24,76,2022/12/24,77,我们已经知道 是 的无偏估计量,即 , 这表明了估计量 的集中趋势。,2022/12/24,78,线性一词的含义是指 是被解释变量的线性函数。,(4.31),式(4.31)中,每个Wji 都是所有自变量样本值的一个函数。可以证明,式(4.31)是成立的。,2022/12/24,79,2022/12/24,80,高斯马
21、尔可夫定理的意义在于,当经典假定成立时,我们不需要再去寻找其它无偏估计量,没有一个会优于普通最小二乘估计量。也就是说,如果存在一个好的线性无偏估计量,这个估计量的方差最多与普通最小二乘估计量的方差一样小,不会小于普通最小二乘估计量的方差。,2022/12/24,81,高斯马尔可夫定理证明了在多元线性回归分析中,使用普通最小二乘法进行参数估计的合理性。但是,这一定理是依赖于经典假定条件的,如果经典假定中的条件不成立,这个定理也就不再成立,普通最小二乘估计量也就不再是最佳线性无偏估计量了。,2022/12/24,82,2022/12/24,83,2022/12/24,84,2022/12/24,8
22、5,在经济计量分析中,我们最关心的是解释变量Xj 是否与被解释变量Y 线性相关。因此,我们的主要目的在于检验原假设,(4.34),2022/12/24,86,式(4.34)中,j 对应k1个解释变量中的任意一个。 是第 j 个变量的偏回归系数,度量了在所有其它解释变量不变的条件下,Xj 对Y的影响;即Xj 变化一个单位,对Y的期望值的影响。,2022/12/24,87,如式(4.34)成立,即 ,则意味着Xj 对Y的期望值没有任何影响。例如,工资模型中:,(4.35),其中,Wi工资,Ei受教育水平,EPi工作经验。,2022/12/24,88,2022/12/24,89,在经济计量分析中,备
23、择假设通常设定为,(4.36),式(4.36)表示 Xj 对 Y 有显著影响, 可正可负。,2022/12/24,90,2022/12/24,91,在式(4.37)中, ,所以 与 的符号相同。在 给定的条件下, 与 成正比。,2022/12/24,92,2022/12/24,93,由于在估计 中存在抽样误差,所以 的大小就必须由其抽样误差来衡量,即由 的标准误 来衡量。因此, 度量了被估计的 与0相差多大。 的值充分远离0将导致拒绝原假设 ,拒绝的标准决定于所选择的显著性水平 。,2022/12/24,94,我们所进行的假设检验是关于总体参数的,我们不是在检验一个来自特定样本的估计值。因此,
24、将一个原假设表达成“H0 : 0 ”,或者在样本中的参数估计值是0.205时说“H0 : 0.2050”,都是毫无意义的,我们要检验的是未知总体参数 是否为0。,2022/12/24,95,多元回归中的t 检验决策规则与一元回归相同。,2022/12/24,96,【例4.3】 工资回归模型,例4.1中估计的工资回归方程如下,Ln(Y)0.2840 + 0.0920X2 + 0.0041X3 + 0.0220X4,Se = (0.1040) (0.0070) (0.0017) (0.0030),R20.3160n526,(4.38),2022/12/24,97,式(4.38)中,Y工资,X2受教
25、育年限, X3 工龄,X4现任职务的任期。,2022/12/24,98,查t 分布表可知,5%显著性水平下的临界值t0.025(522)1.960。模型中参数的t统计量均大于临界值t0.025(522)1.960,每一个估计的偏回归系数在统计上都是显著的,即显著地异于0。也就是说,我们拒绝每个原假设。,2022/12/24,99,这就意味着模型中的三个解释变量:受教育年限、工龄和现任职务的任期对被解释变量工资都有显著的影响。,2022/12/24,100,我们除了要判断每一个偏回归系数的显著性外,还需要对多元回归模型的总体显著性进行判断。,二、回归模型的整体显著性检验F检验,2022/12/2
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多元 线性 回归 模型 ppt 课件

链接地址:https://www.31ppt.com/p-1891793.html