何晓群版应用回归分析考试重点题型.pdfVIP

  • 53
  • 0
  • 约3.76万字
  • 约 17页
  • 2021-01-20 发布于天津
  • 举报

何晓群版应用回归分析考试重点题型.pdf

一元,多元线形回归分析: 一. 请分别叙述变量间统计关系与函数关系的区别, 以及相关分析与回归分 析的联系与区别。 答:各自然现象或社会现象之间普遍存在着各种联系,根据这些联系的 紧密程度不同,可将之分为函数关系与统计关系。 一种情况下某变量 Y 能被其余的一类变量 X ,K , X 完全决定,这时 1 n 两者之间存在着完全的确定性关系,这种关系可以通过一个函数 Y f (X 1 ,K , X n ) 表示。这样的确定性关系被称为函数关系。 另一种情况下变量之间虽然存在紧密的联系,但并不能互相唯一 确定,这种非确定性的紧密联系被称为统计关系。 相关分析与回归分析都是研究两边统计关系的方法,在实际问题 的处理中往往结合使用两者。两者的区别主要在于: 1. 目标不同:相关 分析主要用于刻画 X,Y 两变量间的联系的密切程度,而回归分析除此之 外,还关心对未观察 Y 值的预测与控制。 2. 角度不同:相关分析中 X,Y 两变量地位相同,因此假设两者都是随机变量;而回归分析中只将变量 Y 作为主要研究对象,因而往往假设 Y 是随机变量,而 X 是非随机变量。 二. 请叙述(一元)多元线性回归模型及其基本假设 答: 1. 一元线性模型的基本形式是: y = + x + ,其中 , 称为回归系数, 称为随机误差。 i 0 1 i i 0 1 i 其基本假设为: G-M 假设: E i =0 0, i j ( , ) Cov = i j 2 , i j 或者更强的正态性假设: 2 i 独立同分布, 1 : N (0, ) 。 2. 多元线性模型的基本假设是: T T y=X + ,其中 = ( ,K , )称为回归系数阵, = ( ,K , ) 称为随机 0 p 1 n . . . 误差 . 其基本假设为: a. G-M 假设: E i =0 0, i j ( , ) Cov = i j 2 , i j 或者更强的正态性假设: 2 i 独立同分布, 1 : N (0, ) 。 b.rank(X)=p+1n 三. 请叙述最小二乘法(最大似然法)的基本思路、理论基础

文档评论(0)

1亿VIP精品文档

相关文档