第五章经典线性回归模型(II)(高级计量经济学 清华大学 潘文清)ppt课件.ppt
《第五章经典线性回归模型(II)(高级计量经济学 清华大学 潘文清)ppt课件.ppt》由会员分享,可在线阅读,更多相关《第五章经典线性回归模型(II)(高级计量经济学 清华大学 潘文清)ppt课件.ppt(77页珍藏版)》请在三一办公上搜索。
1、第五章 经典线性回归模型(II),Classical Linear Regression Model (II),5.1 回归模型的解释与比较Interpreting and Comparing Regression Models,一、解释线性模型 interpreting the linear model,对模型 Yi=0+1X1i+kXki+i如何解释j为“当其他变量保持不变,Xj变化一个单位时Y的平均变化”?,本质上: j=E(Y|X)/Xj即测度的是“边际效应”(marginal effect),1、边际效应,因此,当一个工资模型为 Y=0+1age+2age2+3education+4
2、gender+时,只能测度“年龄”变化的边际效应:,E(Y|X)/age=1+22age,解释:“当其他变量不变时,年龄变动1个单位时工资的平均变化量”,2、弹性: 经济学中时常关心对弹性的测度。这时模型常写为: lnYi=0+1lnX1i+klnXki+I,在E(i|lnX1i,lnX2i,lnXki)=0的假设下,弹性为,E(Y|X)/E(Y|X)/Xj/XjE(lnY|lnXj)/lnXj=k,即弹性并非常数,而是随着Xj的变化而变化。,当原始模型为 Yi=0+1X1i+kXki+i时,弹性为: E(Y|X)/E(Y|X)/Xj/Xj =jXj/(0+1X1+kXk),3、相对变化,如果
3、模型为 lnYi=0+1X1i+kXki+i则: j=E(lnY|X)/Xj,解释为:Xj变化1个单位时Y的相对变化量。,二、选择解释变量 Select the Set of Regressors,Question: 如何不遗漏相关变量,同时也不选择无关变量?,假设有如下两模型: Y=X11+X22+1 (5.1.1) Y=X11+2 (5.1.2)其中,(X1)nk1=(1,X1,Xk1), (X2)n(k-k1)=(Xk1+1,Xk) 1=(0,1,k1), 2=(k1+1,k),显然,(5.1.2)为(5.1.1)的受约束模型。约束条件为:H0: 2=0,1、部分回归(partial r
4、egression),Question: 如何解释j为“当其他变量保持不变,Xj变化一个单位时Y的平均变化”?,Y,X1,X2,在X1与X2影响Y的同时,可能存在着X1与X2间的相互影响。如何测度?,将X2中的每一元素Xj (j=k1+1, , k)对X1回归: Xj=X1(X1X1)-1X1Xj+Xj-X1(X1X1)-1X1Xj或 X2=X1(X1X1)-1X1X2+X2-X1(X1X1)-1X1X2 X2=X1Q1+(I-P1)X2 =explained part + residuals其中,Q1=(X1X1)-1X1X2,对 X2=X1Q1+(I-P1)X2 =X1Q1+M1X2 =e
5、xplained part + residualsM1X2就是排除了X1的其他因素对X2的“净”影响。X2对X1的回归称为辅助回归(auxiliary regression),Question: 如何测度X1对Y的“净”影响?,部分回归(Partial regression),Step 1: 排除X2的影响。将Y对X2回归,得“残差”M2Y=(I-X2(X2X2)-1X2Y将X1对X2回归,得“残差”M2X1=(I-X2(X2X2)-1X2X1,M2Y为排除了X2的净Y,M2X1为排除了X2的净X1,将 M2Y对M2X1回归,得X1对Y的“净”影响: M2Y=M2X1b*+e*这里,b*=(M
6、2X1)(M2X1)-1(M2X1)M2Y=X1-1M2Y e*=M2Y-M2X1b*,Step 2: 估计X1对Y的“净”影响。,Proof: b为原无约束回归模型的OLS解,则有 XXb=XY,或 X1X1b1+X1X2b2=X1Y (*) X2X1b1+X2X2b2=X2Y (*)由(*)得 b2=(X2X2)-1X2Y-(X2X2)-1X2X1b1代入(*)且整理得: X1M2X1b1=X1M2Y b1=(X1M2X1)-1X1M2Y=X1-1M2Y=b*其中,M2=I-X2(X2X2)-1X2又 M2Y=M2X1b1+M2X2b2+M2e1而 M2X2=0, M2e1=e1-X2(X
7、2X2)-1X2e1=e1则 M2Y=M2X1b1+e1 或 e1=M2Y-M2X1b1=e*,记受约束模型(5.1.2)的OLS解为br=(X1X1)-1X1Y,于是 br=(X1X1)-1X1Y= (X1X1)-1X1X1b1+X2b2+e1 =b1+ (X1X1)-1X1X2b2+ (X1X1)-1X1e1 =b1+ (X1X1)-1X1X2b2=b1+Q1b2其中,Q1= (X1X1)-1X1X2,则 Y=X1b1+X2b2+e1 且 X1e1=0, X2e1=0,因此,当b2=0或X1与X2正交时,都有br=b1,Question: 受约束模型与无约束模型在X1前的参数估计量相等吗?
8、,将无约束模型代入受约束模型(5.1.2)的OLS解br=(X1X1)-1X1Y ,可得,br=(X1X1)-1X1(X11+X22+1) =1+(X1X1)-1X1X22+ (X1X1)-1X11,于是: E(br|X1)=1+Q12+ (X1X1)-1X1E(1|X1) =1+Q12,因此,只有当2=0或X1与X2正交时,才有E(br|X1)=1,2、遗漏相关变量(omitting variables),Question: What happen if we omit relevant variable?,方差:由于 br-E(br|X1)= (X1X1)-1X11 则: Var(br|X
9、1)=Ebr-E(br|X1) br-E(br|X1) = (X1X1)-1X1E(11)X1(X1X1)-1 =2(X1X1)-1,换言之,如果X2是Y的相关解释变量,且与X1非正交,则略去X2的回归模型对参数的估计是有偏误的,称为省略变量偏误(omitted variable bias)。,Theorem: Var(br)Var(b1)。其中b1为无约束回归Y=X11+X22+1中对应于1的估计量。,Proof: 由受约束模型的参数估计量 br=b1+Q1b2得 b1=br-Q1b2,Var(b1)=Var(br)+Q1Var(b2)Q1-2Cov(br,b2)Q1 Q1Var(b2)Q1
10、是半正定的,只需证明Cov(br,b2)=0,已知 br-E(br|X1)= (X1X1)-1X11又由 Y=X1b1+X2b2+e1 得 M1Y=M1X1b1+M1X2b2+M1e1=M1X2b2+e1 X2M1Y=X2M1X2b2+X2e1=X2M1X2b2这里用到了:M1X1=0, M1e1=e1, X2e1=0 于是 b2=(X2M1X2)-1X2M1Y,E(b2|X)=2+(X2M1X2)-1X2M1E(1|X)=2于是: b2-E(b2)=(X2M1X2)-1X2M11 Cov(b2,br)=Eb2-E(b2)br-E(br) =E(X2M1X2)-1X2M11(X1X1)-1X1
11、1 = (X2M1X2)-1X2M1E(1 1)X1(X1X1)-1 =2(X2M1X2)-1X2M1X1(X1X1)-1 =0,将 Y=X11+X22+1 代入b2得 b2=(X2M1X2)-1X2M1(X11+X22+1) =2+(X2M1X2)-1X2M11,遗漏相关变量问题:有偏,方差变小,导致t检验值变大,容易将本不该纳入模型的变量纳入模型。,3、多选无关变量(redundant variables),如果正确模型是受约束模型 Y=X11+2 (5.1.2)而我们却对无约束模型 Y=X11+X22+1 (5.1.1)进行回归,即模型中多选了无关变量X2。,b1是1的无偏估计。,或 b
12、1=br-Q1b2无论是否有2=0, 始终有Var(b1)Var(br),设正确的受约束模型(5.1.2)的估计结果为br,则有 br= b1+ Q1b2,多选无关变量问题:无偏,但方差变大,即是无效的。变大的方差导致t检验值变小,容易拒绝本该纳入模型的变量。,5.2 多重共线性,一、多重共线性(multicollinearity) 多重共线性,或简称共线(collinearity),意即多元回归中解释变量间存在相关性。 多重共线性有完全共线性(perfect multicollinearity)与近似共线性(approximate multicollinearity)两种情况。 如果存在完全
13、共线,则Rank(X)k+1,XX的逆不存在,OLS估计无法进行。,如果存在近似共线性,则不违背经典假设,OLS估计量仍是无偏一致的估计量,但方差往往较大。,1、估计量的方差,在离差形式的二元线性样本回归模型中: yi=b1x1i+b2x2i+e,一般地,在多元回归中,记 Y=X11+X22+,特别地,假设X2=(Xk1, Xkn),即为X中的最后一列,由于曾经得到 b2=2+(X2M1X2)-1X2M11因此 Var(b2)= (X2M1X2)-1X2M1E(11)M1X2(X2M1X2)-1 =2(X2M1X2)-1,这里,X2M1X2恰为如下辅助回归的残差平方和SSR X2=X1B+v,
14、于是: Var(b2)=2/SSR,表明:第k个解释变量参数估计量的方差,由 模型随机扰动项的方差2 第k个解释变量的样本方差SXk2 第k个解释变量与其他解释变量的相关程度Rk2 样本容量n四个方面的因素决定。,四个因素共同影响着bj方差的大小。Rj2为Xj关于其他解释变量这一辅助回归的决定系数1/(1-Rj2)称为方差膨胀因子(variance inflation factor),2、多重共线性问题,“ The consequences of multicollinearity are that the sampling distribution of the coefficient es
15、timators may have large variances that the coefficient estimates are unstable from sample to sample. Thus they may be too unreliable to be use” (Judge),估计量不准确,j的样本估计值可能会远离真值置信区间大,关于j的不同的假设都可能被接受,bj可能不会显著地异于“任何”假设t检验值变小,可能将重要的变量排除在模型之外使区间预测的“区间”变大,使预测失去意义。,由多重共线性引起的大方差将导致:,注意:,除非是完全共线性,多重共线性并不意味着任何基本
16、假设的违背;因此,OLS估计量仍是最佳线性无偏估计量(BLUE)。 问题在于,即使OLS法仍是最好的估计方法,它却不是“完美的”,尤其是在统计推断上无法给出真正有用的信息。,3、何时需要多重共线性,多重共线性可能使单个的j不准确,却可使若干参数的组合更准确。 假设总体回归方程为 E(Y)=0+1X1+2X2,记 =1+2,则其样本估计量为 t=b1+b2于是: Var(t)=Var(b1)+Var(b2)+2Cov(b1,b2),在离差形式下,记,特别地,取,于是,因此 Var(b1)=Var(b2)=2/(1-r2) Cov(b1,b2) = -2r/(1-r2)Var(t)=22/(1-r
17、2)-2r/(1-r2)=22(1-r)/(1-r2)=22/(1+r),如果r=0,无共线性:Var(b1)=Var(b2)=2 Var(t)=22,可见,较强的共线性使得1、2的估计量的方差较大,从而对它们各自的估计变得不准确性确; 但却使1、2的组合1+2的估计量的方差变小,因此使该组合的估计变得更准确。,如果r = 0.9,有强共线性: Var(b1)=Var(b2)=2/(1-0.92)=2/0.19=5.32 Var(t)=22 /(1+0.9)=22/1.9=1.052,5.3 广义最小二乘估计Generalized Least Squares Estimation,一、广义经典
18、回归模型 Generalized Classical Regression Model,对经典回归模型,将假设5改为如下假设:,Assumption 6: |XN(0, 2V), where 0 2 is unknown and V=V(X) is a known nn finite and positive definite matrix: E(i|X)=0 Var(i|X)=2Vii(X) Cov(i, j|X)=2Vij(X),注意:,(1) 假设6意味着 Var(|X)=E(|X)=2V=2V(X) (2) 假设6允许存在条件异方差(conditional heteroskedasti
19、city) (3) 允许V可以是非对角阵,即cov(i,j|X)可以不为零,上述假设下的回归模型称为广义经典回归模型(Generalized Classical Regression Model, GCRM),二、最小二乘估计 Least Squares Estimation,对多元线性回归模型 Y=X+仍可记其OLS估计为 b=(XX)-1XY这时,残差项为 e=MY=M 显然: E(b|X)=(XX)-1XX+E(|X)= Var(b|X)=(XX)-1XVar(Y|X)(XX)-1X =(XX)-1XVar(|X)(XX)-1X =2(XX)-1XV(XX)-1X,OLS估计b仍无偏,但
20、其方差矩阵不再是一标量2与矩阵(XX)-1的乘积。,另外,E(e|X)=ME(|X)=0 Var(e)=MVar(|X)M=2MVM,于是 E(ee)=trVar(e)=2tr(MVM)=2tr(MMV)=2tr(MV),由于 MV=(I-P)V=V - X(XX)-1XV而 trX(XX)-1XV=tr(XX)-1XVX于是 tr(MV)=tr(V)-tr(XX)-1XVX,该式可方便地计算MV的迹。,显然,该期望不等于真值 Var(b)= 2(XX)-1XV(XX)-1X = 2(XX)-1(XVX)(XX)-1,表明: 传统的b的方差的OLS估计是有偏的,传统的标准差也不再是对估计精确程
21、度的正确测度,从而传统的置信区间以及假设检验都已不再适用。,如何解决问题? 1.以传统的b为的估计量,但需寻找b的正确的方差矩阵; 2. 直接寻找的更好的估计量。,注意:,在CR模型Y=X+满足基本假设1、3、6条件下,其OLS估计b具有: 无偏性: E(b|X)= 方差: Var(b)=2(XX)-1XVX(XX)-1 2(XX)-1但在 min(XX) (n)的条件下,Var(b)0 表明b依均方收敛于,因此仍是一致估计量 b-|XN(0, 2(XX)-1XVX(XX)-1) Cov(b, e|X)=0,三、广义最小二乘估计 Generalized Least Squares (GLS)
22、estimation,引理:对任何对称正定矩阵V,总有非奇异矩阵C,使得 V-1=CC,Theorem: 对GCR模型,在假设1、3、6下,的广义最小二乘(GLS)估计为 b*=(XV-1X)-1XV-1Y,roof: 对原模型 Y=X+由于V已知,总可以找到可逆矩阵C,使V-1=CC用C左乘原模型得 CY=CX+C,记为: Y*=X*+* (*) 其中,Y*=CY, X*=CX,*=C,由于 E(*|X)=E(C|X)=CE(|X)=0 Var(*|X)=Var(C|X)=CE(|X)C= 2CVC = 2C(CC)-1C= 2I因此,(*)式满足CR模型的基本假设,其OLS估计为 b*=(
23、X*X*)-1X*Y*=(XCCX)-1XCCY =(XV-1X)-1XV-1Y,b*称为的广义最小二乘估计(Generalized Least Square (GLS) estimator),由于b*满足所有CR模型的基本假设,因此有:,注意:t检验与F检验以GLS估计量b*为基础; 如对 H0:R=r, F检验为 F=(r-Rb*)R(X*X*)-1R-1(r-Rb*)/(Js2)(2) 由于GLS估计b*是BLUE,故OLS估计b不是BLUE(3) 实践中,V往往并不已知,因此GLS实际实施有困难。,E(b*|X)= Var(b*|X)=2(X*X*)-1 Cov(b*,e*|X)=0,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第五章 经典线性回归模型II高级计量经济学 清华大学 潘文清ppt课件 第五 经典 线性 回归 模型 II 高级 计量 经济学 潘文清 ppt 课件

链接地址:https://www.31ppt.com/p-1372953.html