回归分析在数模竞赛中的应用-2.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
§4 广义线性回归 (Generalized Linear Regression) 一、广义线性回归基本思想 下面先看几个例子。 例5 抛物线的拟合 某零件上有一条曲线,可以近似看作是一条抛物线,为了在数控机床上加工这一零件,在曲线上测得 个点的坐标 ,,要求从这 个点的坐标出发,求出曲线的函数表达式。 显然,这是一个回归分析问题,由于曲线可以近似看作是一条抛物线,因此,回归方程(即曲线的函数表达式)是一个二次多项式 。 像这种回归方程是一个多项式的回归,称为多项式回归(Polynomial Regression)。 虽然多项式回归方程不是线性的,但可以通过变量代换,化成线性形式。 令 , ,原来的回归方程化成了下列形式: , 这是一个线性回归方程,可以用前面介绍过的线性回归的方法求出它的解。具体作回归时,所需要的观测数据 , 用 , 的数值代入,求得的线性回归方程中常系数的估计,也就是原来的二次多项式回归方程中常系数的估计。 例6 科布-道格拉斯(Cobb-Douglas)生产函数 在经济学中,有一个著名的科布-道格拉斯生产函数,这个函数指出,生产产出 与劳动投入 、资本投入 之间,近似有下列关系: , 其中, 都是常系数。现测得一组劳动投入、资本投入和生产产出的数据,,要求从这批数据出发,估计常系数 的值。 这是一个回归分析问题,回归方程为 ,显然,它不是线性回归方程,但是,如果我们对方程两边同时取对数,得到 , (原来有 ,误差项为,取对数后有 ,也有一个误差项,我们把这个误差项记为。) 再令 ,,,,它就化成了一个线性回归方程 。 用线性回归的方法可以求出它的解。具体作回归时,所需要的观测数据 ,, 用 ,, 的数值代入,计算得到的线性回归方程中常系数的估计,就是原来回归方程中 的估计,原来回归方程中 的估计,可以通过 求得。 例7(1992年全国数模竞赛A题)施肥效果分析 对2种作物——土豆、生菜,分别施以3种不同数量的肥料——氮、磷、钾,得到一批产量的数据,求施肥量与产量之间的关系。 设分别是氮、磷、钾肥的施肥量,是产量。与之间,可能有各种各样的关系,但这种关系显然不会是线性的。比如说,可以考虑下列关系: 。 这是一个的2次多项式。 令 ,,,,,,,,,它就化成了一个线性回归方程 , 可以用线性回归的方法求出它的解。 例8 混合异辛烯催化反应 在混合异辛烯催化反应中,反应速度 与氢的分压 ,异辛烯的分压 ,异辛烷的分压 之间,近似有下列关系: , 其中, 是常系数。现对 作观测,得到观测值 ,,要求常系数 的估计值。 对回归方程两边开3次方,再取倒数,得到 , 再令 , , , , , , , , ,原方程就化成了下列形式: , 这是一个不带常数项 的线性回归方程。对于这种回归方程,可以用求线性回归方程的解法,求得它的最小二乘解。作回归计算时,所需要的观测数据 ,,,,,用 ,,,, 的数值代入,按线性回归方法求得常系数的估计 后,从下列各式就可以求出原方程中各系数的估计值: , , , 。 上面举了几个把非线性回归化为线性回归的例子。 一个非线性回归问题,如果能够象上面例子中所介绍的那样,通过适当的变量代换,化为线性回归,则称这种回归为广义线性回归(Generalized Linear Regression)。 二、广义线性回归的一般形式和解法 设自变量 与因变量 之间,有下列关系: , 其中, 是已知的一元函数,有唯一的反函数 ,,,…, 是自变量 的不含未知参数的函数, 是常系数,~ 是表示误差的随机变量, 。 对 , 进行 次观测,得到观测值: , 。 求 的估计 ,使得下式达到最小: 。 这就是广义线性回归问题的一般形式。 对回归方程的两边同时取反函数 ,得到 。 令 ,,… ,,上述方程就化成了线性回归方程 。 用线性回归的方法可以求出它的解。 三、广义线性回归中的加权处理 有些广义线性回归问题,化为线性时不需要取反函数 ,有些则要取反函数 。对于要取反函数的广义线性回归问题,其实还有一点必须说明,就是:取了反函数后,得到的新问题并不完全等价于原问题。 下面用简化的形式来说明这一点。 原问题 回归方程为 。 求 的估计 ,使得下式达到最小: 。 化为线性后的新问题 在原回归方程的两边取反函数 ,得到 。 求 的估计 ,使得下式达到最小: 。 这两个问题不完全等价。因为变换 把曲线变成直线,把原来各观测点到曲线的距离变成了各点到直线的距离。显然,原来各点到曲线的距离并不等于变换后各点到直线的距离,使各点到曲线的距

文档评论(0)

lyxbb + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档