- 53
- 0
- 约3.76万字
- 约 17页
- 2021-01-20 发布于天津
- 举报
一元,多元线形回归分析:
一. 请分别叙述变量间统计关系与函数关系的区别, 以及相关分析与回归分
析的联系与区别。
答:各自然现象或社会现象之间普遍存在着各种联系,根据这些联系的
紧密程度不同,可将之分为函数关系与统计关系。
一种情况下某变量 Y 能被其余的一类变量 X ,K , X 完全决定,这时
1 n
两者之间存在着完全的确定性关系,这种关系可以通过一个函数
Y f (X 1 ,K , X n ) 表示。这样的确定性关系被称为函数关系。
另一种情况下变量之间虽然存在紧密的联系,但并不能互相唯一
确定,这种非确定性的紧密联系被称为统计关系。
相关分析与回归分析都是研究两边统计关系的方法,在实际问题
的处理中往往结合使用两者。两者的区别主要在于: 1. 目标不同:相关
分析主要用于刻画 X,Y 两变量间的联系的密切程度,而回归分析除此之
外,还关心对未观察 Y 值的预测与控制。 2. 角度不同:相关分析中 X,Y
两变量地位相同,因此假设两者都是随机变量;而回归分析中只将变量
Y 作为主要研究对象,因而往往假设 Y 是随机变量,而 X 是非随机变量。
二. 请叙述(一元)多元线性回归模型及其基本假设
答: 1. 一元线性模型的基本形式是:
y = + x + ,其中 , 称为回归系数, 称为随机误差。
i 0 1 i i 0 1 i
其基本假设为:
G-M 假设:
E i =0
0, i j
( , )
Cov =
i j 2
, i j
或者更强的正态性假设:
2
i 独立同分布, 1 : N (0, ) 。
2. 多元线性模型的基本假设是:
T T
y=X + ,其中 = ( ,K , )称为回归系数阵, = ( ,K , ) 称为随机
0 p 1 n
. . .
误差 .
其基本假设为:
a. G-M 假设:
E i =0
0, i j
( , )
Cov =
i j 2
, i j
或者更强的正态性假设:
2
i 独立同分布, 1 : N (0, ) 。
b.rank(X)=p+1n
三. 请叙述最小二乘法(最大似然法)的基本思路、理论基础
原创力文档

文档评论(0)