GLM の基礎

GLM タブで使われている統計理論の背景です。操作方法は GLM のページを参照してください。

モデルの定式化

GLM は正規線形モデルを指数型分布族に一般化した枠組みで、Nelder & Wedderburn (1972) が提唱しました。3つの要素で定義されます:

  1. 分布ファミリー: 応答変数 YY の分布が指数型分布族に属する
  2. 線形予測子: η=Xβ\eta = X\beta(説明変数の線形結合)
  3. リンク関数: 単調関数 gg により η=g(μ)\eta = g(\mu) として線形予測子と平均 μ=E[Y]\mu = E[Y] を結びつける

OLS は GLM の特殊ケース(Gaussian ファミリー + Identity リンク)です。この場合 IRLS は1回の反復で正規方程式の解に一致し、Wald 検定は OLS の tt 検定と等価になります。

指数型分布族

確率密度(質量)関数が次の形で書ける分布族を指数型分布族と呼びます:

f(yθ,ϕ)=exp ⁣{yθb(θ)a(ϕ)+c(y,ϕ)}f(y \mid \theta, \phi) = \exp\!\left\{\frac{y\theta - b(\theta)}{a(\phi)} + c(y, \phi)\right\}

θ\theta は自然パラメータ(canonical parameter)、ϕ\phi は分散パラメータ、b(θ)b(\theta) は対数分配関数です。平均と分散は b(θ)b(\theta) から導かれます:

  • E[Y]=b(θ)=μE[Y] = b'(\theta) = \mu
  • Var(Y)=b(θ)a(ϕ)\operatorname{Var}(Y) = b''(\theta) \cdot a(\phi)

b(θ)b''(\theta)θ\theta ではなく μ\mu の関数として書き直したものが分散関数 V(μ)V(\mu) です。つまり Var(Y)=V(μ)a(ϕ)\operatorname{Var}(Y) = V(\mu) \cdot a(\phi) が成り立ちます。たとえば Poisson では b(θ)=eθb(\theta) = e^\theta なので b(θ)=eθ=μb'(\theta) = e^\theta = \mub(θ)=eθ=μb''(\theta) = e^\theta = \mu となり、V(μ)=μV(\mu) = \mu が得られます。

各分布ファミリーのパラメータ:

ファミリーθ\theta(自然パラメータ)a(ϕ)a(\phi)b(θ)b(\theta)c(y,ϕ)c(y, \phi)
Gaussianμ\muϕ\phiθ2/2\theta^2/2(y2/(2ϕ)+log(2πϕ)/2)-\bigl(y^2/(2\phi) + \log(2\pi\phi)/2\bigr)
Binomiallog ⁣(μ/(1μ))\log\!\bigl(\mu/(1-\mu)\bigr)1/n1/nlog(1+eθ)\log(1+e^\theta)log(nk)\log\binom{n}{k}
Poissonlogμ\log\mu11eθe^\thetalog(y!)-\log(y!)
Gamma1/μ-1/\muϕ\philog(θ)-\log(-\theta)(1/ϕ1)logy+(1/ϕ)log(1/ϕ)logΓ(1/ϕ)(1/\phi - 1)\log y + (1/\phi)\log(1/\phi) - \log\Gamma(1/\phi)
Negative Binomiallog ⁣(μ/(μ+r))\log\!\bigl(\mu/(\mu+r)\bigr)11rlog(1eθ)-r\log(1-e^\theta)logΓ(y+r)logΓ(r)log(y!)\log\Gamma(y+r) - \log\Gamma(r) - \log(y!)
  • Binomial の yy は成功割合 y=k/ny = k/n, 0y10 \le y \le 1 です。kk は成功回数、nn は試行回数、μ\mu は成功確率です。n=1n=1 のとき Bernoulli 分布に帰着します
  • Negative Binomial の rr は MIDAS UI では θ\theta(形状パラメータ)と表記されています。rr が既知の場合のみ指数型分布族に属します。MIDAS の自動推定モードでは外側ループで rr を推定しています
  • 表中の θ\theta は指数型分布族の自然パラメータであり、MIDAS UI の Negative Binomial の形状パラメータ θ\theta とは別の記号です

リンク関数

リンク関数は線形予測子 η\eta と応答変数の期待値 μ\mu を結びつける単調関数 η=g(μ)\eta = g(\mu) です。g(μ)=θg(\mu) = \theta(自然パラメータ)とするリンクを正準リンク(canonical link)と呼びます。

リンク関数数式正準リンクとなるファミリー
Identityη=μ\eta = \muGaussian
Logitη=log ⁣(μ/(1μ))\eta = \log\!\bigl(\mu / (1 - \mu)\bigr)Binomial
Logη=log(μ)\eta = \log(\mu)Poisson, Negative Binomial
Inverseη=1/μ\eta = 1/\muGamma
Probitη=Φ1(μ)\eta = \Phi^{-1}(\mu)

正準リンクには重要な性質があります。η=θ\eta = \theta となるため XyX'yβ\beta十分統計量になり、対数尤度β\beta について凹になります。計画行列 XX がフルランクであれば最尤推定量が一意に定まり、IRLS の収束も安定します。

非正準リンクではこれらの性質が保証されません。それでも係数の解釈しやすさから選ばれることがあります。たとえば Gamma ファミリーの正準リンクは Inverse(η=1/μ\eta = 1/\mu)ですが、係数が 1/μ1/\mu スケールになるため解釈が難しく、実務では exp(β)\exp(\beta) を乗法的効果として解釈できる Log リンクがよく使われます。

パラメータ推定(IRLS)

GLM のパラメータ β\beta最尤法で推定します。解析的に解けないため、IRLS(Iteratively Reweighted Least Squares)で数値的に求めます。

各反復で作業用重み WW と調整従属変数 zz を計算し、加重最小二乗:

β^(t+1)=(XW(t)X)1XW(t)z(t)\hat\beta^{(t+1)} = (X'W^{(t)}X)^{-1}X'W^{(t)}z^{(t)}

を解いて β\beta を更新します。WWzz の導出は McCullagh & Nelder (1989, Ch. 2) を参照してください。係数の変化量が収束閾値を下回ると終了です。

正準リンクを使う場合、対数尤度の凹性からこの反復は安定して収束します。非正準リンクでは収束が不安定になることがあるため、反復回数の増加や収束失敗に注意してください。

分散関数と過分散

指数型分布族で述べたとおり、分散関数 V(μ)=b(θ)V(\mu) = b''(\theta) は対数分配関数の二階微分を μ\mu で書き直したものです。Var(Y)=V(μ)a(ϕ)\operatorname{Var}(Y) = V(\mu) \cdot a(\phi) の関係を通じて、各ファミリーの平均と分散の関係を規定します。

ファミリーb(θ)b''(\theta)V(μ)V(\mu)a(ϕ)a(\phi)Var(Y)\operatorname{Var}(Y)
Gaussian1111ϕ\phiϕ\phi(= σ2\sigma^2
Binomialeθ(1+eθ)2\dfrac{e^\theta}{(1+e^\theta)^2}μ(1μ)\mu(1 - \mu)1/n1/nμ(1μ)/n\mu(1-\mu)/n
Poissoneθe^\thetaμ\mu11μ\mu
Gamma1/θ21/\theta^2μ2\mu^2ϕ\phiμ2ϕ\mu^2 \phi
Negative Binomialreθ(1eθ)2\dfrac{re^\theta}{(1-e^\theta)^2}μ+μ2/r\mu + \mu^2/r11μ+μ2/r\mu + \mu^2/r

Poisson と Binomial では分散パラメータ ϕ=1\phi = 1 と仮定します。実データの分散がこの仮定より大きい場合を過分散(overdispersion)と呼びます。過分散があると標準誤差が過小推定され、信頼区間が狭くなりすぎます。

Poisson で過分散が検出された場合、Negative Binomial に切り替えることで分散に μ2/r\mu^2/r の項が加わり、過分散を明示的にモデル化できます。

Binomial で過分散が検出された場合、MIDAS には現在 quasi-binomial や Beta-Binomial などの対処法がありません。過分散が疑われる場合は、分散パラメータの推定値を確認し、標準誤差や信頼区間が過小推定されている可能性を考慮してください。

See also

参考文献

  • Nelder, J. A., & Wedderburn, R. W. M. (1972). Generalized linear models. Journal of the Royal Statistical Society: Series A, 135(3), 370-384.
  • McCullagh, P., & Nelder, J. A. (1989). Generalized Linear Models (2nd ed.). Chapman and Hall/CRC.