SPSS因子分析的基本概念和步骤.doc
《SPSS因子分析的基本概念和步骤.doc》由会员分享,可在线阅读,更多相关《SPSS因子分析的基本概念和步骤.doc(17页珍藏版)》请在三一办公上搜索。
1、SPSS因子分析的基本概念和步骤因子分析的基本概念和步骤一、因子分析的意义在研究实际问题时往往希望尽可能多地收集相关变量,以期望能对问题有比较全面、完整的把握和认识。例如,对高等学校科研状况的评价研究,可能会搜集诸如投入科研活动的人数、立项课题数、项目经费、经费支出、结项课题数、发表论文数、发表专著数、获得奖励数等多项指标;再例如,学生综合评价研究中,可能会搜集诸如基础课成绩、专业基础课成绩、专业课成绩、体育等各类课程的成绩以及累计获得各项奖学金的次数等。虽然收集这些数据需要投入许多精力,虽然它们能够较为全面精确地描述事物,但在实际数据建模时,这些变量未必能真正发挥预期的作用,“投入”和“产出
2、”并非呈合理的正比,反而会给统计分析带来很多问题,可以表现在:计算量的问题由于收集的变量较多,如果这些变量都参与数据建模,无疑会增加分析过程中的计算工作量。虽然,现在的计算技术已得到了迅猛发展,但高维变量和海量数据仍是不容忽视的。变量间的相关性问题收集到的诸多变量之间通常都会存在或多或少的相关性。例如,高校科研状况评价中的立项课题数与项目经费、经费支出等之间会存在较高的相关性;学生综合评价研究中的专业基础课成绩与专业课成绩、获奖学金次数等之间也会存在较高的相关性。而变量之间信息的高度重叠和高度相关会给统计方法的应用带来许多障碍。例如,多元线性回归分析中,如果众多解释变量之间存在较强的相关性,即
3、存在高度的多重共线性,那么会给回归方程的参数估计带来许多麻烦,致使回归方程参数不准确甚至模型不可用等。类似的问题还有很多。为了解决这些问题,最简单和最直接的解决方案是削减变量的个数,但这必然又会导致信息丢失和信息不完整等问题的产生。为此,人们希望探索一种更为有效的解决方法,它既能大大减少参与数据建模的变量个数,同时也不会造成信息的大量丢失。因子分析正式这样一种能够有效降低变量维数,并已得到广泛应用的分析方法。因子分析的概念起源于20世纪初Karl Pearson和Charles Spearmen等人关于智力测验的统计分析。目前,因子分析已成功应用于心理学、医学、气象、地址、经济学等领域,并因此
4、促进了理论的不断丰富和完善。因子分析以最少的信息丢失为前提,将众多的原有变量综合成较少几个综合指标,名为因子。通常,因子有以下几个特点:因子个数远远少于原有变量的个数原有变量综合成少数几个因子之后,因子将可以替代原有变量参与数据建模,这将大大减少分析过程中的计算工作量。因子能够反映原有变量的绝大部分信息因子并不是原有变量的简单取舍,而是原有变量重组后的结果,因此不会造成原有变量信息的大量丢失,并能够代表原有变量的绝大部分信息。因子之间的线性关系并不显著由原有变量重组出来的因子之间的线性关系较弱,因子参与数据建模能够有效地解决变量多重共线性等给分析应用带来的诸多问题。因子具有命名解释性通常,因子
5、分析产生的因子能够通过各种方式最终获得命名解释性。因子的命名解 1释性有助于对因子分析结果的解释评价,对因子的进一步应用有重要意义。例如,对高校科研情况的因子分析中,如果能够得到两个因子,其中一个因子是对科研人力投入、经费投入、立项项目数等变量的综合,而另一个是对结项项目数、发表论文数、获奖成果数等变量的综合,那么,该因子分析就是较为理想的。因为这两个因子均有命名可解释性,其中一个反映了科研投入方面的情况,可命名为科研投入因子,另一个反映了科研产出方面的情况,可命名为科研产出因子。总之,因子分析是研究如何以最少的信息丢失将众多原有变量浓缩成少数几个因子,如何使因子具有一定的命名解释性的多元统计
6、分析方法。二、因子分析的基本概念1、因子分析模型因子分析模型中,假定每个原始变量由两部分组成:共同因子(common factors)和唯一因子(unique factors)。共同因子是各个原始变量所共有的因子,解释变量之间的相关关系。唯一因子顾名思义是每个原始变量所特有的因子,表示该变量不能被共同因子解释的部分。原始变量与因子分析时抽出的共同因子的相关关系用因子负荷(factor loadings)表示。因子分析最常用的理论模式如下:Zj=aj1F1+aj2F2+aj3F3+ajmFm+Uj(j=1,2,3,n,n为原始变量总数) 可以用矩阵的形式表示为Z=AF+U。其中F称为因子,由于它
7、们出现在每个原始变量的线性表达式中(原始变量可以用Xj表示,这里模型中实际上是以F线性表示各个原始变量的标准化分数Zj),因此又称为公共因子。因子可理解为高维空间中互相垂直的m个坐标轴,A称为因子载荷矩阵,aji(j=1,2,3.n,i=1,2,3.m)称为因子载荷,是第j个原始变量在第i个因子上的负荷。如果把变量Zj看成m维因子空间中的一个向量,则aji表示Zj在坐标轴Fi上的投影,相当于多元线性回归模型中的标准化回归系数;U称为特殊因子,表示了原有变量不能被因子解释的部分,其均值为0,相当于多元线性回归模型中的残差。其中,(1)Zj为第j个变量的标准化分数;(2)Fi(i=1,2,m)为共
8、同因素;(3)m为所有变量共同因素的数目;(4)Uj为变量Zj的唯一因素;(5)aji为因素负荷量。2、因子分析数学模型中的几个相关概念因子载荷(因素负荷量factor loadings)2所谓的因子载荷就是因素结构中,原始变量与因素分析时抽取出共同因素的相关。可以证明,在因子不相关的前提下,因子载荷aji是变量Zj和因子Fi的相关系数,反映了变量Zj与因子Fi的相关程度。因子载荷aji值小于等于1,绝对值越接近1,表明因子Fi与变量Zj的相关性越强。同时,因子载荷aji也反映了因子Fi对解释变量Zj的重要作用和程度。因子载荷作为因子分析模型中的重要统计量,表明了原始变量和共同因子之间的相关关
9、系。因素分析的理想情况,在于个别因素负荷量aji不是很大就是很小,这样每个变量才能与较少的共同因素产生密切关联,如果想要以最少的共同因素数来解释变量间的关系程度,则Uj彼此间或与共同因素间就不能有关联存在。一般说来,负荷量为0.3或更大被认为有意义。所以,当要判断一个因子的意义时,需要查看哪些变量的负荷达到了0.3或0.3以上。变量共同度(共同性,Communality)变量共同度也就是变量方差,就是指每个原始变量在每个共同因子的负荷量的平方和,也就是指原始变量方差中由共同因子所决定的比率。变量的方差由共同因子和唯一因子组成。共同性表明了原始变量方差中能被共同因子解释的部分,共同性越大,变量能
10、被因子说明的程度越高,即因子可解释该变量的方差越多。共同性的意义在于说明如果用共同因子替代原始变量后,原始变量的信息被保留的程度。因子分析通过简化相关矩阵,提取可解释相关的少数因子。一个因子解释的是相关矩阵中的方差,而解释方差的大小称为因子的特征值。一个因子的特征值等于所有变量在该因子上的负荷值的平方总和。变量Zj的共同度h的数学定义为:h=aji,该式表明变量Zj的共同度是因子222i=1m载荷矩阵A中第j行元素的平方和。由于变量Zj的方差可以表示成h2+u2=1,因此变量Zj的方差可由两个部分解释:第一部分为共同度h2,是全部因子对变量Zj方差解释说明的比例,体现了因子全体对变量Zj的解释
11、贡献程度。变量共同度h2越接近1,说明因子全体解释说明了变量Zj的较大部分方差,如果用因子全体刻画变量Zj,则变量Zj的信息丢失较少;第二部分为特殊因子U的平方,反应了变量Zj方差中不能由因子全体解释说明的比例,u2越小则说明变量Zj的信息丢失越少。总之,变量d共同度刻画了因子全体对变量Zj信息解释的程度,是评价变量Zj信息丢失程度的重要指标。如果大多数原有变量的变量共同度均较高(如高于0.8),则说明提取的因子能够反映原有变量的大部分信息(80以上)信息,仅有较少的信息丢失,因子分析的效果较好。因子,变量共同度是衡量因子分析效果的重要依据。因子的方差贡献(特征值eigenvalue)3因子的
12、方差贡献(特征值)的数学定义为:Si=aji,该式表明,因子Fi的方差2j=1n2贡献是因子载荷矩阵A中第i列元素的平方和。因子Fi的方差贡献反映了因子Fi对原有变量总方差的解释能力。该值越高,说明相应因子的重要性越高。因此,因子的方差贡献和方差贡献率是衡量因子重要性的关键指标。为了便于说明,以三个变量抽取两个共同因素为例,三个变量的线性组合分别为:Z1=a11F1+a12F2+U1 Z2=a21F1+a22F2+U2 Z3=a31F1+a32F2+U3素负荷量的平方和),也就是个别变量可以被共同因素解释的变异量百分比,这个值是个别变量与共同因素间多元相关的平方。从共同性的大小可以判断这个原始
13、变量与共同因素之间关系程度。而各变量的唯一因素大小就是1减掉该变量共同性的值。(在主成分分析中,有多少个原始变量便有多少个“component”成分,所以共同性会等于1,没有唯一因素)。至于特征值是每个变量在某一共同因素之因素负荷量的平方总和(一直行所有因素负荷量的平方和)。在因素分析之共同因素抽取中,特征值大的共同因素会最先被抽取,其次是次大者,最后抽取的共同因素之特征值最小,通常会接近0(在主成分分析中,有几个题项,便有几个成分,因而特征值的总和刚好等于变量的总数)。将每个共同因素的特征值除以总题数,为此共同因素可以解释的变异量,因素分析的目的,即在因素结构的简单化,希望以最少的共同因素,
14、能对总变异量作最大的解释,因而抽取的因素越少越好,但抽取因素之累积解释的变异量则越大越好。3、社会科学中因素分析通常应用在三个层面: (1)显示变量间因素分析的组型(pattern) 4(2)侦测变量间之群组(clusters),每个群组所包括的变量彼此相关很高,同构型较大,亦即将关系密切的个别变量合并为一个子群。(3)减少大量变量数目,使之称为一组涵括变量较少的统计自变量(称为因素),每个因素与原始变量间有某种线性关系存在,而以少数因素层面来代表多数、个别、独立的变量。因素分析具有简化数据变量的功能,以较少层面来表示原来的数据结构,它根据变量间彼此的相关,找出变量间潜在的关系结构,变量间简单
15、的结构关系称为“成份”(components)或“因素”(factors).三、因素分析的主要方式围绕浓缩原有变量提取因子的核心目标,因子分析主要涉及以下五大基本步骤:1、因子分析的前提条件由于因子分析的主要任务之一是对原有变量进行浓缩,即将原有变量中的信息重叠部分提取和综合成因子,进而最终实现减少变量个数的目的。因此它要求原有变量之间应存在较强的相关关系。否则,如果原有变量相互独立,相关程度很低,不存在信息重叠,它们不可能有共同因子,那么也就无法将其综合和浓缩,也就无需进行因子分析。本步骤正是希望通过各种方法分析原有变量是否存在相关关系,是否适合进行因子分析。SPSS提供了四个统计量可帮助判
16、断观测数据是否适合作因子分析:(1)计算相关系数矩阵Correlation Matrix在进行提取因子等分析步骤之前,应对相关矩阵进行检验,如果相关矩阵中的大部分相关系数小于0.3,则不适合作因子分析;当原始变量个数较多时,所输出的相关系数矩阵特别大,观察起来不是很方便,所以一般不会采用此方法或即使采用了此方法,也不方便在结果汇报中给出原始分析报表。(2)计算反映象相关矩阵Anti-image correlation matrix反映象矩阵重要包括负的协方差和负的偏相关系数。偏相关系数是在控制了其他变量对两变量影响的条件下计算出来的净相关系数。如果原有变量之间确实存在较强的相互重叠以及传递影响
17、,也就是说,如果原有变量中确实能够提取出公共因子,那么在控制了这些影响后的偏相关系数必然很小。反映象相关矩阵的对角线上的元素为某变量的MSA(Measure of Sample Adequacy)统计量,其数学定义为:rijMSAi=ji2rji2ij+pijji2,其中,rij是变量xi和其他变量xj(ji)间的简单相关系数,pij是变量xj(ji)在控制了剩余变量下的偏相关系数。由公式可知,某变量xi的MSAi统计量的取值在0和1之间。当它与其他所有变量间的简单相关系数平方和远大于偏相关系数的平方和时,MSAi值接近1。MSAi值越接近1,意味变量xi与其他变量间的相关性越强;当它与其他所
18、有变量间的简单相关系数平方和接近0时,MSAi值接近0。MSAi值越接近0,意味变量xi与其他变量间的相关性越弱。5观察反映象相关矩阵,如果反映象相关矩阵中除主对角元素外,其他大多数元素的绝对值均小,对角线上元素的值越接近1,则说明这些变量的相关性较强,适合进行因子分析。与(1)中最后所述理由相同,一般少采用此方法。(3)巴特利特球度检验Bartlett test of sphericityBartlett球体检验的目的是检验相关矩阵是否是单位矩阵(identity matrix),如果是单位矩阵,则认为因子模型不合适。Bartlett球体检验的虚无假设为相关矩阵是单位阵,如果不能拒绝该假设的
19、话,就表明数据不适合用于因子分析。一般说来,显著水平值越小(<0.05)表明原始变量之间越可能存在有意义的关系,如果显著性水平很大(如0.10以上)可能表明数据不适宜于因子分析。(4)KMO(Kaiser-Meyer-Oklin Measure of Smapling Adequacy)KMO是Kaiser-Meyer-Olkin的取样适当性量数。KMO测度的值越高(接近1.0时),表明变量间的共同因子越多,研究数据适合用因子分析。通常按以下标准解释该指标值的大小:KMO值达到0.9以上为非常好,0.80.9为好,0.70.8为一般,0.60.7为差,0.50.6为很差。如果KMO测度的
20、值低于0.5时,表明样本偏小,需要扩大样本。综上所述,经常采用的方法为巴特利特球度检验Bartlett test of sphericity和KMO(Kaiser-Meyer-Oklin Measure of Smapling Adequacy)。2、抽取共同因子,确定因子的数目和求因子解的方法将原有变量综合成少数几个因子是因子分析的核心内容。本步骤正是研究如何在样本数据的基础上提取和综合因子。决定因素抽取的方法,有“主成份分析法”(principal components analysis)、主轴法、一般化最小平方法、未加权最小平方法、最大概似法、Alpha因素抽取法与映象因素抽取法等。使用
21、者最常使用的是主成份分析法与主轴法,其中,又以主成份分析法使用最为普遍,在SPSS使用手册中,也建议研究者多采用主成份分析法来估计因素负荷量(SPSS Inc,1998)。所谓主成份分析法,就是以较少的成份解释原始变量方差的较大部分。进行主成份分析时,先要将每个变量的数值转换成标准值。主成份分析就是用多个变量组成一个多维空间,然后在空间内投射直线以解释最大的方差,所得的直线就是共同因子,该直线最能代表各个变量的性质,而在此直线上的数值所构成的一个变量就是第一个共同因子,或称第一因子(F1)。但是在空间内还有剩余的方差,所以需要投射第二条直线来解释方差。这时,还要依据第二条准则,即投射的第二条直
22、线与第一条直线成直交关系(即不相关),意为代表不同的方面。第二条直线上的数值所构成的一个变量,称为第二因子(F2)。依据该原理可以求出第三、第四或更多的因子。原则上,因子的数目与原始变量的数目相同,但抽取了主要的因子之后,如果剩余的方差很小,就可以放弃其余的因子,以达到简化数据的目的。因子数目的确定没有精确的定量方法,但常用的方法是借助两个准则来确定因子的个数。一是特征值(eigenvalue)准则,二是碎石图检验(scree test)准则。特征值准则就是选取特征值大于或等于1的主成份作为初始因子,而放弃特征值小于1的主成份。因为每个变量的方差为1,该准则认为每个保留下来的因子至少应该能解释
23、一个变量的方差,否则达不到精简数据的目的。碎石检验准则是根据因子被提取的顺序绘出特征值随因子个数变化的散点图,根据图的形状来判断因子的个数。散点曲线的特点是由高到低,先陡后平,最后几乎成一条直线。曲线开始变平的前一个点被认为是提取的最大因子数。后面的散点类似于山脚下的碎石,可舍弃而不会丢失很多信息。3、使因子更具有命名可解释性通常最初因素抽取后,对因素无法作有效的解释。这时往往需要进行因子旋转 6(rotation),通过坐标变换使因子解的意义更容易解释。转轴的目的在于改变题项在各因素负荷量的大小,转轴时根据题项与因素结构关系的密切程度,调整各因素负荷量的大小,转轴后,使得变量在每个因素的负荷
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- SPSS 因子分析 基本概念 步骤

链接地址:https://www.31ppt.com/p-4201240.html