<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://www.yiliao.com/index.php?action=history&amp;feed=atom&amp;title=%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90</id>
	<title>多元分析 - 版本历史</title>
	<link rel="self" type="application/atom+xml" href="https://www.yiliao.com/index.php?action=history&amp;feed=atom&amp;title=%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90"/>
	<link rel="alternate" type="text/html" href="https://www.yiliao.com/index.php?title=%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90&amp;action=history"/>
	<updated>2026-04-18T06:12:33Z</updated>
	<subtitle>本wiki的该页面的版本历史</subtitle>
	<generator>MediaWiki 1.35.1</generator>
	<entry>
		<id>https://www.yiliao.com/index.php?title=%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90&amp;diff=199987&amp;oldid=prev</id>
		<title>112.247.67.26：以“研究多个自变量与因变量相互关系的一组统计理论和方法。又称多变量分析。多元分析是单变量统计方法的发展和推广...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="https://www.yiliao.com/index.php?title=%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90&amp;diff=199987&amp;oldid=prev"/>
		<updated>2014-02-06T11:18:56Z</updated>

		<summary type="html">&lt;p&gt;以“研究多个自变量与&lt;a href=&quot;/%E5%9B%A0%E5%8F%98%E9%87%8F&quot; title=&quot;因变量&quot;&gt;因变量&lt;/a&gt;相互关系的一组统计理论和方法。又称多变量分析。&lt;a href=&quot;/%E5%A4%9A%E5%85%83%E5%88%86%E6%9E%90&quot; title=&quot;多元分析&quot;&gt;多元分析&lt;/a&gt;是单变量统计方法的发展和推广...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;研究多个自变量与[[因变量]]相互关系的一组统计理论和方法。又称多变量分析。[[多元分析]]是单变量统计方法的发展和推广。人的心理和行为具有复杂的内在结构,受到多种因素的制约。仅采用单变量分析难以揭示其内在结构以及各种影响因素的主次作用和交互影响。 &lt;br /&gt;
&lt;br /&gt;
首先涉足多元分析方法是F.高尔顿，他于1889年把双变量的[[正态分布]]方法运用于传统的统计学，创立了[[相关系数]]和线性回归。其后的几十年中，C.E.[[斯皮尔曼]]提出[[因素分析]]法（见因素分析），R.A.费希尔提出[[方差分析]]和[[判别分析]]，S.S.威尔克斯发展了多元方差分析，H.霍特林确定了主成分分析和典型相关。到20世纪前半叶，多元分析理论大多已经确立。60年代以后，随着计算机科学的发展，多元分析方法在心理学以及其他许多学科的研究中得到了越来越广泛的应用。 &lt;br /&gt;
&lt;br /&gt;
常用的多元分析方法包括3类:①多元方差分析、[[多元回归]]分析和[[协方差分析]]，称为线性模型方法，用以研究确定的自变量与因变量之间的关系；②判别函数分析和[[聚类分析]],用以研究对事物的分类；③主成分分析、典型相关和因素分析，研究如何用较少的综合因素代替为数较多的原始变量。 &lt;br /&gt;
&lt;br /&gt;
多元方差分析 是把总[[变异]]按照其来源（或[[实验设计]]）分为多个部分，从而检验各个因素对因变量的影响以及各因素间[[交互作用]]的统计方法。例如，在分析2×2析因设计资料时，总变异可分为分属两个因素的两个组间变异、两因素间的交互作用及误差（即组内变异）等四部分,然后对组间变异和交互作用的显著性进行F检验。 &lt;br /&gt;
&lt;br /&gt;
多元方差分析的优点是可以在一次研究中同时检验具有多个水平的多个因素各自对因变量的影响以及各因素间的交互作用。其应用的限制条件是，各个因素每一水平的样本必须是独立的随机样本，其重复观测的数据服从正态分布，且各总体[[方差]]相等。 &lt;br /&gt;
&lt;br /&gt;
多元回归分析 用以评估和分析一个因变量与多个自变量之间线性函数关系的统计方法。一个因变量&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;与自变量&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;1、&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;2、…&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;&amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;有线性回归关系是指： &lt;br /&gt;
&lt;br /&gt;
其中&amp;lt;i&amp;gt;α&amp;lt;/i&amp;gt;、&amp;lt;i&amp;gt;β&amp;lt;/i&amp;gt;1…&amp;lt;i&amp;gt;β&amp;lt;/i&amp;gt;&amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;是待估参数，&amp;lt;i&amp;gt;ε&amp;lt;/i&amp;gt;是表示误差的随机变量。通过实验可获得&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;1、&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;2…&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;&amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;的若干组数据以及对应的&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;值，利用这些数据和最小二乘法就能对方程中的参数作出估计，记为╋、勮…叧，它们称为偏[[回归系数]]。 &lt;br /&gt;
&lt;br /&gt;
多元回归分析的优点是可以定量地描述某一现象和某些因素间的线性函数关系。将各变量的已知值代入回归方程便可求得因变量的估计值（预测值），从而可以有效地预测某种现象的发生和发展。它既可以用于[[连续变量]]，也可用于二分变量（0，1回归）。多元回归的应用有严格的限制。首先要用方差分析法检验自变量&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;与&amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;个自变量之间的线性回归关系有无显著性，其次，如果&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;与&amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;个自变量总的来说有线性关系，也并不意味着所有自变量都与因变量有线性关系，还需对每个自变量的偏回归系数进行t检验,以剔除在方程中不起作用的自变量。也可以用逐步回归的方法建立回归方程，逐步选取自变量，从而保证引入方程的自变量都是重要的。 &lt;br /&gt;
&lt;br /&gt;
协方差分析 把线性回归与方差分析结合起来检验多个修正均数间有无差别的统计方法。例如，一个实验包含两个多元自变量，一个是离散变量(具有多个水平)，一个是连续变量，实验目的是分析离散变量的各个水平的优劣，此变量是方差变量；而连续变量是由于无法加以控制而进入实验的，称为协变量。在运用协方差分析时，可先求出该连续变量与因变量的线性回归函数，然后根据这个函数扣除该变量的影响，即求出该连续变量取等值情况时因变量的修正均数，最后用方差分析检验各修正均数间的[[差异显著性]]，即检验离散变量对因变量的影响。 &lt;br /&gt;
&lt;br /&gt;
协方差分析兼具方差分析和回归分析的优点，可以在考虑连续变量影响的条件下检验离散变量对因变量的影响，有助于排除非实验因素的干扰作用。其限制条件是，理论上要求各组资料（样本）都来自方差相同的正态总体,各组的总体[[直线回归]]系数相等且都不为0。因此应用协方差分析前应先进行[[方差齐性]]检验和回归系数的[[假设检验]]，若符合或经变换后符合上述条件，方可作协方差分析。 &lt;br /&gt;
&lt;br /&gt;
判别函数分析 判定个体所属类别的统计方法。其基本原理是：根据两个或多个已知类别的样本观测资料确定一个或几个线性判别函数和判别指标，然后用该判别函数依据判别指标来判定另一个个体属于哪一类。 &lt;br /&gt;
&lt;br /&gt;
判别分析不仅用于连续变量，而且借助于数量化理论亦可用于[[定性资料]]。它有助于客观地确定归类标准。然而，判别分析仅可用于类别已确定的情况。当类别本身未定时，预用聚类分析先分出类别，然后再进行判别分析。 &lt;br /&gt;
&lt;br /&gt;
聚类分析 解决分类问题的一种统计方法。若给定&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;个观测对象，每个观察对象有&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个特征（变量），如何将它们聚成若干可定义的类?若对观测对象进行聚类,称为Q型分析;若对变量进行聚类,称为R型分析。聚类的基本原则是,使同类的内部差别较小,而类别间的差别较大。最常用的聚类方案有两种。一种是系统聚类方法。例如，要将&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;个对象分为&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;类,先将&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;个对象各自分成一类,共&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;类。然后计算两两之间的某种“距离”，找出距离最近的两个类、合并为一个类。然后逐步重复这一过程，直到并为&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;类为止。另一种为逐步聚类或称动态聚类方法。当样本数很大时，先将&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;个样本大致分为&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;类，然后按照某种最优原则逐步修改，直到分类比较合理为止。 &lt;br /&gt;
&lt;br /&gt;
聚类分析是依据个体或变量的数量关系来分类，客观性较强，但各种聚类方法都只能在某种条件下达到局部最优,聚类的最终结果是否成立,尚需专家的鉴定。必要时可以比较几种不同的方法，选择一种比较符合专业要求的分类结果。 &lt;br /&gt;
&lt;br /&gt;
主成分分析 把原来多个指标化为少数几个互不相关的综合指标的一种统计方法。例如,用&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个指标观测样本,如何从这&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个指标的数据出发分析样本或总体的主要性质呢？如果&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个指标互不相关，则可把问题化为&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个单指标来处理。但大多时候&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个指标之间存在着相关。此时可运用主成分分析寻求这些指标的互不相关的线性函数，使原有的多个指标的变化能由这些线性函数的变化来解释。这些线性函数称为原有指标的主成分，或称主分量。 &lt;br /&gt;
&lt;br /&gt;
主成分分析有助于分辨出影响因变量的主要因素，也可应用于其他多元分析方法，例如在分辨出主成分之后再对这些主成分进行回归分析、判别分析和典型相关分析。主成分分析还可以作为因素分析的第一步，向前推进就是因素分析。其缺点是只涉及一组变量之间的相互依赖关系，若要讨论两组变量之间的相互关系则须运用典型相关。 &lt;br /&gt;
&lt;br /&gt;
典型相关分析 先将较多变量转化为少数几个典型变量，再通过其间的典型相关系数来综合描述两组多元随机变量之间关系的统计方法。设&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;是&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;元随机变量,&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;是&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;元随机变量，如何描述它们之间的相关程度?当然可逐一计算&amp;lt;i&amp;gt;x&amp;lt;/i&amp;gt;的&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;个分量和&amp;lt;i&amp;gt;y&amp;lt;/i&amp;gt;的&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;个分量之间的相关系数(&amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;×&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;个)， 但这样既繁琐又不能反映事物的本质。如果运用典型相关分析，其基本程序是，从两组变量各自的线性函数中各抽取一个组成一对，它们应是相关系数达到最大值的一对，称为第1对典型变量,类似地还可以求出第2对、第3对、……,这些成对变量之间互不相关,各对典型变量的相关系数称为典型相关系数。所得到的典型相关系数的数目不超过原两组变量中任何一组变量的数目。 &lt;br /&gt;
&lt;br /&gt;
典型相关分析有助于综合地描述两组变量之间的典型的相关关系。其条件是,两组变量都是连续变量,其资料都必须服从多元正态分布。 &lt;br /&gt;
&lt;br /&gt;
以上几种多元分析方法各有优点和局限性。每一种方法都有它特定的假设、条件和数据要求，例如正态性、线性和同方差等。因此在应用多元分析方法时，应在研究计划阶段确定理论框架，以决定收集何种数据、怎样收集和如何分析数据资料。 &lt;br /&gt;
&lt;br /&gt;
参考书目 &lt;br /&gt;
&lt;br /&gt;
张尧庭、方开泰著：《多元统计分析引论》，科学出版社，北京，1982。 &lt;br /&gt;
&lt;br /&gt;
丁士晟编著：《多元分析方法及其应用》，吉林人民出版社，长春，1981。&lt;/div&gt;</summary>
		<author><name>112.247.67.26</name></author>
	</entry>
</feed>