当前位置: 首页 > news >正文

多元线性回归模型

内容来源
线性回归分析导论 原书第5版 机械工业出版社


模型

假设模型中的误差项 ϵ \epsilon ϵ E ( ϵ ) = 0 E(\epsilon)=0 E(ϵ)=0 V a r ( ϵ ) = σ 2 Var(\epsilon)=\sigma^2 Var(ϵ)=σ2 且误差是不相关的

y = X β + ϵ y=X\beta+\epsilon y=+ϵ

其中

y = [ y 1 y 2 ⋮ y n ] , X = [ 1 x 11 x 12 ⋯ x 1 k 1 x 21 x 22 ⋯ x 2 k ⋮ ⋮ ⋮ ⋮ 1 x n 1 x n 2 ⋯ x n k ] , β = [ β 0 β 2 ⋮ β k ] , ϵ = [ ϵ 1 ϵ 2 ⋮ ϵ n ] y= \left[ \begin{matrix} y_1\\y_2\\\vdots\\y_n \end{matrix} \right], X= \left[ \begin{matrix} 1&x_{11}&x_{12}&\cdots&x_{1k}\\ 1&x_{21}&x_{22}&\cdots&x_{2k}\\ \vdots&\vdots&\vdots&&\vdots\\ 1&x_{n1}&x_{n2}&\cdots&x_{nk} \end{matrix} \right], \beta= \left[ \begin{matrix} \beta_0\\\beta_2\\\vdots\\\beta_k \end{matrix} \right], \epsilon= \left[ \begin{matrix} \epsilon_1\\\epsilon_2\\\vdots\\\epsilon_n \end{matrix} \right] y= y1y2yn ,X= 111x11x21xn1x12x22xn2x1kx2kxnk ,β= β0β2βk ,ϵ= ϵ1ϵ2ϵn

最小二乘估计量 β ^ \hat{\beta} β^

S ( β ) = ( y − X β ) ′ ( y − X β ) = ( y ′ − β ′ X ′ ) ( y − X β ) = y ′ y − β ′ X ′ y − y ′ X β + β ′ X ′ X β \begin{align*} S(\beta)&=(y-X\beta)'(y-X\beta)\\ &=(y'-\beta'X')(y-X\beta)\\ &=y'y-\beta'X'y-y'X\beta+\beta'X'X\beta \end{align*} S(β)=(y)(y)=(yβX)(y)=yyβXyy+βX

中间两项都是 1 × 1 1\times1 1×1 矩阵且互为转置,所以

S ( β ) = y ′ y − 2 β ′ X ′ y + β ′ X ′ X β S(\beta)=y'y-2\beta'X'y+\beta'X'X\beta S(β)=yy2βXy+βX

求导,得

∂ S ∂ β ∣ β ^ = − 2 X ′ y + 2 X ′ X β = 0 \frac{\partial S}{\partial \beta}\bigg|_{\hat{\beta}}=-2X'y+2X'X\beta=0 βS β^=2Xy+2X=0

所以

β ^ = ( X ′ X ) − 1 X ′ y \hat\beta=(X'X)^{-1}X'y β^=(XX)1Xy

帽子矩阵

H = X ( X ′ X ) − 1 X ′ H=X(X'X)^{-1}X' H=X(XX)1X

帽子矩阵将观测值向量映射为拟合值向量

y ^ = X β ^ = X ( X ′ X ) − 1 X ′ y = H y \hat{y}=X\hat\beta=X(X'X)^{-1}X'y=Hy y^=Xβ^=X(XX)1Xy=Hy

最小二乘估计量的性质

E ( β ^ ) = E [ ( X ′ X ) − 1 X ′ y ] = E [ ( X ′ X ) − 1 X ′ ( X β + ϵ ) ] = E [ ( X ′ X ) − 1 X ′ X β + ( X ′ X ) − 1 X ′ ϵ ] = β \begin{align*} E(\hat\beta)&=E\left[(X'X)^{-1}X'y\right]\\ &=E\left[(X'X)^{-1}X'(X\beta+\epsilon)\right]\\ &=E\left[(X'X)^{-1}X'X\beta+(X'X)^{-1}X'\epsilon\right]\\ &=\beta \end{align*} E(β^)=E[(XX)1Xy]=E[(XX)1X(+ϵ)]=E[(XX)1X+(XX)1Xϵ]=β

因此,当模型正确时, β ^ \hat\beta β^ β \beta β 的无偏估计量

C o v ( β ^ ) = V a r ( β ^ ) = V a r [ ( X ′ X ) − 1 X ′ y ] \begin{align*} Cov(\hat\beta)&=Var(\hat\beta)\\ &=Var\left[(X'X)^{-1}X'y\right] \end{align*} Cov(β^)=Var(β^)=Var[(XX)1Xy]

因为 ( X ′ X ) − 1 X ′ (X'X)^{-1}X' (XX)1X 为常数矩阵,且 y y y 的方差为 σ 2 I \sigma^2I σ2I ,所以

V a r [ ( X ′ X ) − 1 X ′ y ] = ( X ′ X ) − 1 X ′ V a r ( y ) [ ( X ′ X ) − 1 X ′ ] ′ = σ 2 ( X ′ X ) − 1 X ′ X ( X ′ X ) − 1 = σ 2 ( X ′ X ) − 1 \begin{align*} &Var\left[(X'X)^{-1}X'y\right]\\ &=(X'X)^{-1}X'Var(y)\left[(X'X)^{-1}X'\right]'\\ &=\sigma^2(X'X)^{-1}X'X(X'X)^{-1}\\ &=\sigma^2(X'X)^{-1} \end{align*} Var[(XX)1Xy]=(XX)1XVar(y)[(XX)1X]=σ2(XX)1XX(XX)1=σ2(XX)1

根据高斯-马尔可夫定理,最小二乘估计量 β ^ \hat\beta β^ β \beta β 的最佳线性无偏估计量

如果进一步假设误差 ϵ \epsilon ϵ 为正态分布,那么 β ^ \hat\beta β^ 也是 β \beta β 的极大似然估计量

σ 2 \sigma^2 σ2 的估计

便于计算残差平方和公式

S S 残 = ∑ i = 1 n ( y i − y ^ i ) 2 = ( y − X β ^ ) ′ ( y − X β ^ ) = y ′ y − 2 β ′ X ′ y + β ′ X ′ X β \begin{align*} SS_{残}&=\sum^n_{i=1}(y_i-\hat{y}_i)^2\\ &=(y-X\hat\beta)'(y-X\hat\beta)\\ &=y'y-2\beta'X'y+\beta'X'X\beta \end{align*} SS=i=1n(yiy^i)2=(yXβ^)(yXβ^)=yy2βXy+βX

代入 β ^ = ( X ′ X ) − 1 X ′ y \hat\beta=(X'X)^{-1}X'y β^=(XX)1Xy ,得

S S 残 = y ′ y − β ^ ′ X ′ y SS_{残}=y'y-\hat{\beta}'X'y SS=yyβ^Xy

通过残差平方和得到 σ 2 \sigma^2 σ2 的估计

S S 残 = ( y − y ^ ) ′ ( y − y ^ ) = [ y − H y ] ′ [ y − H y ] = y ′ [ I − H ] y \begin{align*} SS_{残}&=(y-\hat{y})'(y-\hat{y})\\ &=\left[y-Hy\right]'\left[y-Hy\right]\\ &=y'\left[I-H\right]y \end{align*} SS=(yy^)(yy^)=[yHy][yHy]=y[IH]y

根据定义,可以验证 [ I − H ] \left[I-H\right] [IH] 是对称幂等的,所以

S S 残 σ 2 ∼ χ 2 ( n − k − 1 ) \frac{SS_{残}}{\sigma^2}\sim\chi^2(n-k-1) σ2SSχ2(nk1)

书上就这么写的,看了半天自己加了个假设才有点头绪

如果认为误差项 ϵ \epsilon ϵ 服从正态分布,可以推得残差也服从正态分布,即

e = y − y ^ = ( I − H ) y = ( I − H ) ( X β − ϵ ) = ( I − H ) ϵ e=y-\hat y=(I-H)y=(I-H)(X\beta-\epsilon)=(I-H)\epsilon e=yy^=(IH)y=(IH)(ϵ)=(IH)ϵ

所以 e ∼ N n − k − 1 ( 0 , σ 2 ( I − H ) ) e\sim N_{n-k-1}(0,\sigma^2(I-H)) eNnk1(0,σ2(IH)) ,然后根据卡方分布与正态分布的关系可得出上面的结论

(回到书上)那么残差均方的期望为

E ( M S 残 ) = E ( S S 残 n − k − 1 ) = σ 2 E\left(MS_{残}\right)=E\left(\frac{SS_{残}}{n-k-1}\right)=\sigma^2 E(MS)=E(nk1SS)=σ2


http://www.mrgr.cn/news/50615.html

相关文章:

  • 光伏电站的安装方式有哪些类型
  • 国际盲人节,看华为智能眼镜2是如何为视障用户开启便捷新体验的
  • 【工具推荐】Hikvision - 一款海康威视综合漏洞利用工具,适用于漏洞挖掘、SRC漏洞挖掘、护网红队、渗透测试,支持一键获取 shell。
  • 【工具分享】XSStrike是一款检测XSS漏洞的高级检测工具,XSS漏洞挖掘神器,渗透必备,SRC挖掘必备,多个SRC挖掘团队都在偷偷使用。
  • RTR-Chapter9上
  • TCP/UDP与网络调试助手通信
  • Cortex-A7:如何切换ARM和Thumb状态
  • k8s worker 节点关机 sts 管理的 pod 无法迁移
  • kubernetes--配置管理和持久化存储
  • CentOS 7上安装MySQL客户端并进行配置
  • 景区展览馆客流统计系统实时显示在场人数
  • 深度学习实战94-基于图卷积神经网络GCN模型的搭建以及在金融领域的场景
  • 人工智能AI与机器学习ML基础入门
  • Linux 内核中USB鼠标枚举失败问题总结
  • 深入探索阿里巴巴关键字搜索商品API的返回值
  • 什麼是高速HTTP代理?
  • 数据库达人必备:MySQL面试精华1/100,解锁职场新高度
  • lwip多线程使用说明,注意事项
  • SQL 注入漏洞 - 学习手册
  • CM-connected