GLM の基礎

GLM タブで使われている統計理論の背景です。操作方法は GLM のページを参照してください。

モデルの定式化

GLM は正規線形モデルを指数型分布族に一般化した枠組みで、Nelder & Wedderburn (1972) が提唱しました。3つの要素で定義されます:

  1. 分布ファミリー: 応答変数 YY の分布が指数型分布族に属する
  2. 線形予測子: η=Xβ\eta = X\beta(説明変数の線形結合)
  3. リンク関数: 単調関数 gg により η=g(μ)\eta = g(\mu) として線形予測子と平均 μ=E[Y]\mu = E[Y] を結びつける

OLS は GLM の特殊ケース(Gaussian ファミリー + Identity リンク)です。この場合 IRLS は1回の反復で正規方程式の解に一致し、ϕ\phi をデータから推定する MIDAS の実装では Wald 統計量が tnpt_{n-p} に厳密に従うため、OLS の tt 検定と有限標本で等価になります。他のファミリー・リンクの組み合わせでは、Wald 検定は漸近的な近似にとどまります。

指数型分布族

GLM は分布族をこの形に限ることで、平均と分散の関係を b(θ)b(\theta) で統一的に記述し、ファミリーを問わない共通の推定アルゴリズム(IRLS)を導きます。

確率密度(質量)関数が次の形で書ける分布族を指数型分布族と呼びます:

f(yθ,ϕ)=exp ⁣{yθb(θ)a(ϕ)+c(y,ϕ)}f(y \mid \theta, \phi) = \exp\!\left\{\frac{y\theta - b(\theta)}{a(\phi)} + c(y, \phi)\right\}

θ\theta は自然パラメータ(canonical parameter)、ϕ\phi は分散パラメータ、b(θ)b(\theta) は対数分配関数です。平均と分散は b(θ)b(\theta) から導かれます:

  • E[Y]=b(θ)=μE[Y] = b'(\theta) = \mu
  • Var(Y)=b(θ)a(ϕ)\operatorname{Var}(Y) = b''(\theta) \cdot a(\phi)

b(θ)b''(\theta)θ\theta ではなく μ\mu の関数として書き直したものが分散関数 V(μ)V(\mu) です。つまり Var(Y)=V(μ)a(ϕ)\operatorname{Var}(Y) = V(\mu) \cdot a(\phi) が成り立ちます。たとえば Poisson では b(θ)=eθb(\theta) = e^\theta なので b(θ)=eθ=μb'(\theta) = e^\theta = \mub(θ)=eθ=μb''(\theta) = e^\theta = \mu となり、V(μ)=μV(\mu) = \mu が得られます。

各分布ファミリーのパラメータ:

ファミリーθ\theta(自然パラメータ)a(ϕ)a(\phi)b(θ)b(\theta)c(y,ϕ)c(y, \phi)
Gaussianμ\muϕ\phiθ2/2\theta^2/2y22ϕlog(2πϕ)2-\dfrac{y^2}{2\phi} - \dfrac{\log(2\pi\phi)}{2}
Binomiallog ⁣(μ/(1μ))\log\!\bigl(\mu/(1-\mu)\bigr)1/n1/nlog(1+eθ)\log(1+e^\theta)log(nk)\log\binom{n}{k}
Poissonlogμ\log\mu11eθe^\thetalog(y!)-\log(y!)
Gamma1/μ-1/\muϕ\philog(θ)-\log(-\theta)(1/ϕ1)logy+(1/ϕ)log(1/ϕ)logΓ(1/ϕ)(1/\phi - 1)\log y + (1/\phi)\log(1/\phi) - \log\Gamma(1/\phi)
Negative Binomiallog ⁣(μ/(μ+r))\log\!\bigl(\mu/(\mu+r)\bigr)11rlog(1eθ)-r\log(1-e^\theta)logΓ(y+r)logΓ(r)log(y!)\log\Gamma(y+r) - \log\Gamma(r) - \log(y!)
  • Binomial の yy は成功割合 y=k/ny = k/n, 0y10 \le y \le 1 です。kk は成功回数、nn は試行回数、μ\mu は成功確率です。n=1n=1 のとき Bernoulli 分布に帰着します
  • Negative Binomial の rr は MIDAS の操作画面では θ\theta と表記されていますが、このページでは指数型分布族の自然パラメータとの混同を避けるため rr で統一しています。rr が既知の場合のみ指数型分布族に属します。MIDAS の自動推定モードでは、β\beta をプロファイルアウトした尤度 Lp(r)=maxβL(β,r)L_p(r) = \max_\beta L(\beta, r) を外側ループで最大化して rr を推定します(GLM の操作方法を参照)。自動推定時に報告される β^\hat\beta の標準誤差は r=r^r = \hat r を既知として固定した情報行列から計算されるため、rr の推定不確実性は含まれません(R の MASS::glm.nb と同じ扱い)

リンク関数は線形予測子 η\eta と応答変数の期待値 μ\mu を結びつける単調関数 η=g(μ)\eta = g(\mu) です。g(μ)=θg(\mu) = \theta(自然パラメータ)とするリンクを正準リンク(canonical link)と呼びます。

リンク関数数式正準リンクとなるファミリー
Identityη=μ\eta = \muGaussian
Logitη=log ⁣(μ/(1μ))\eta = \log\!\bigl(\mu / (1 - \mu)\bigr)Binomial
Logη=log(μ)\eta = \log(\mu)Poisson
Inverseη=1/μ\eta = 1/\muGamma
Probitη=Φ1(μ)\eta = \Phi^{-1}(\mu)

正準リンクには重要な性質があります。η=θ\eta = \theta となるため XyX'yβ\beta十分統計量になり、対数尤度β\beta について凹になります。計画行列 XX がフルランクかつ最尤推定量が存在すれば、その解は一意になり、IRLS の収束も安定します。ただし完全分離(ある説明変数の線形結合で応答を完全に分離できるケース)では対数尤度が凹かつフルランクでも有限の最大値を持たず、最尤推定量は存在しません。二値応答のロジスティック回帰が典型例で、多項ロジットなど他の離散応答モデルでも類似のケースが起こります(GLM の操作方法の収束問題の項を参照)。

非正準リンクではこれらの性質が保証されません。それでも係数の解釈しやすさから選ばれることがあります。たとえば Gamma ファミリーの正準リンクは Inverse(η=1/μ\eta = 1/\mu)ですが、係数が 1/μ1/\mu スケールになるため解釈が難しく、実務では exp(β)\exp(\beta) を乗法的効果として解釈できる Log リンクがよく使われます。

パラメータ推定(IRLS)

GLM のパラメータ β\beta最尤法で推定します。正則条件のもとで推定量は一致性・漸近正規性・漸近有効性を持ちます。一般には解析的に解けないため、IRLS(Iteratively Reweighted Least Squares)で数値的に求めます(Gaussian + Identity は例外で、V(μ)=1V(\mu)=1dη/dμ=1d\eta/d\mu=1 から下式の W=IW=Iz=yz=y となり、重みがデータに依存しないため任意の初期値から1回の反復で OLS 解 β^=(XX)1Xy\hat\beta = (X'X)^{-1}X'y に到達します)。

各反復で作業用重み WW と調整従属変数 zz を計算し、加重最小二乗:

β^(t+1)=(XW(t)X)1XW(t)z(t)\hat\beta^{(t+1)} = (X'W^{(t)}X)^{-1}X'W^{(t)}z^{(t)}

を解いて β\beta を更新します。WWzz は現在の μ^(t)\hat\mu^{(t)} とリンク関数から次のように計算されます:

Wii=1V(μi)(dη/dμ)i2,zi=ηi+(yiμi)(dηdμ)iW_{ii} = \frac{1}{V(\mu_i)\,(d\eta/d\mu)_i^2}, \qquad z_i = \eta_i + (y_i - \mu_i)\,\Bigl(\frac{d\eta}{d\mu}\Bigr)_i

V(μ)V(\mu) は分散関数、dη/dμd\eta/d\mu はリンク関数の導関数です。GLM に対する IRLS の定式化は Nelder & Wedderburn (1972) を参照してください。係数の変化量が収束閾値を下回ると終了です。

正準リンクを使う場合、対数尤度の凹性からこの反復は安定して収束します。非正準リンクでは収束が不安定になることがあるため、反復回数の増加や収束失敗に注意してください。

分散関数と過分散

指数型分布族で述べたとおり、分散関数 V(μ)=b(θ)V(\mu) = b''(\theta) は対数分配関数の二階微分を μ\mu で書き直したものです。Var(Y)=V(μ)a(ϕ)\operatorname{Var}(Y) = V(\mu) \cdot a(\phi) の関係を通じて、各ファミリーの平均と分散の関係を規定します。

ファミリーb(θ)b''(\theta)V(μ)V(\mu)a(ϕ)a(\phi)Var(Y)\operatorname{Var}(Y)
Gaussian1111ϕ\phiϕ\phi(= σ2\sigma^2
Binomialeθ(1+eθ)2\dfrac{e^\theta}{(1+e^\theta)^2}μ(1μ)\mu(1 - \mu)1/n1/nμ(1μ)/n\mu(1-\mu)/n
Poissoneθe^\thetaμ\mu11μ\mu
Gamma1/θ21/\theta^2μ2\mu^2ϕ\phiμ2ϕ\mu^2 \phi
Negative Binomialreθ(1eθ)2\dfrac{re^\theta}{(1-e^\theta)^2}μ+μ2/r\mu + \mu^2/r11μ+μ2/r\mu + \mu^2/r

Poisson と Binomial では分散パラメータ ϕ=1\phi = 1 と仮定します。実データの分散がこの仮定より大きい場合を過分散(overdispersion)と呼びます。過分散があると標準誤差が過小推定され、信頼区間が狭くなりすぎます。過分散の診断には ϕ^=Pearson χ2/(np)\hat\phi = \text{Pearson } \chi^2/(n-p) を確認します。仮定が正しければ ϕ^\hat\phi は 1 前後になるはずなので、1 から大きく離れる場合は過分散を疑います。npn-p が小さいほど偶然のばらつきで 1 から離れやすい点には注意してください。GLM タブの Deviance Goodness-of-Fit チャートも診断に利用できます。

Poisson で過分散が検出された場合、Negative Binomial に切り替えることで分散に μ2/r\mu^2/r の項が加わり、過分散を明示的にモデル化できます。rr を推定する場合は過分散が分散関数で既にモデル化されているため ϕ=1\phi = 1 として扱い、rr を固定する場合は ϕ^=Pearson χ2/(np)\hat\phi = \text{Pearson }\chi^2/(n-p) で分散パラメータを推定します。

ただし試行回数 ni=1n_i = 1 の二値データ(ロジスティック回帰)では、各観測が Bernoulli(μi)(\mu_i) に従い、平均 μi\mu_i が決まれば周辺分散 μi(1μi)\mu_i(1-\mu_i) も一意に決まります。観測レベルで分散に自由度がないため、「データの分散が理論分散より大きい」という対比を測る対象がそもそもありません。個体レベルのデータで Pearson χ2\chi^2 や逸脱度から過分散を検出できないのはこのためです。これは「過分散がない」ことを意味するのではなく「同じデータからは検出できない」という意味で、クラスタや繰り返し測定に由来する余剰分散は別枠で存在しうります(用語集を参照)。過分散の検出と古典的な対処が意味を持つのは ni>1n_i > 1 の Grouped Binomial です。

Grouped Binomial で過分散が検出された場合、MIDAS には現在 quasi-binomial や Beta-Binomial などの対処法がありません。クラスタ構造由来の余剰分散であれば GLMM でランダム効果を導入する選択肢があります。過分散が疑われる場合は、分散パラメータの推定値を確認し、標準誤差や信頼区間が過小推定されている可能性を考慮してください。

予測区間の計算方法

GLM の予測機能で計算される予測区間の数理的背景です。

以下の公式で ϕ^\hat\phi は推定分散パラメータを表します。Gaussian では残差 deviance を npn - p で割った値(Gaussian では Pearson χ2\chi^2 と恒等的に等しい)、Gamma では Pearson χ2\chi^2npn - p で割った値です(deviance ベースは Gamma の一致推定量にならないため Pearson χ2/(np)\chi^2/(n-p) を使用します)。Poisson/Binomial では ϕ^=1\hat\phi = 1 です。hi=xnewT(XTW^X)1xnewh_i = x_\text{new}^T (X^T \hat W X)^{-1} x_\text{new} は予測点のレバレッジであり、予測点が学習データの説明変数空間の中心からどの程度離れているかを示します。

プラグイン法とは、推定したパラメータを真の値として扱い、その値に基づいて区間を計算する方法です。パラメータ推定の不確実性を含まない点が信頼区間との違いです。

予測区間の計算方法はファミリーに依存します:

  • Gaussian + identity link: 解析的公式 μ^±tnpϕ^(1+hi)\hat\mu \pm t_{n-p} \sqrt{\hat\phi(1 + h_i)} を使用します。新規観測の分散(ϕ^\hat\phi)と平均の推定不確実性(ϕ^hi\hat\phi \cdot h_i)の両方を含みます
  • Gaussian + 非 identity link: プラグイン法 μ^±tnpϕ^\hat\mu \pm t_{n-p} \sqrt{\hat\phi} を使用します。tnpt_{n-p} は選択した信頼水準に対応する tt 分布の分位点です。非線形のリンク変換により、平均 μ\mu スケールでの推定不確実性を閉じた形で組み込めません。代替として (a) リンクスケールで区間 η^±tnpϕ^(1+hi)\hat\eta \pm t_{n-p}\sqrt{\hat\phi(1+h_i)} を作って g1g^{-1} で応答スケールに逆変換する方法や、(b) delta 法による一次近似 Var(μ^)(dμ/dη)2ϕ^hi\operatorname{Var}(\hat\mu) \approx (d\mu/d\eta)^2 \cdot \hat\phi h_i を使う方法もありますが、いずれもリンクの非線形性や小標本で被覆確率の保証が弱くなるため MIDAS では採用していません。その結果、この組み合わせの予測区間は推定不確実性を反映しない簡易的なものとなり、データ中心の予測点と外挿点で同じ幅の区間になります
  • Poisson, Binomial, Gamma, Negative Binomial: プラグイン分位点法を使用します。推定した分布パラメータを真の値として扱い、分位点を直接計算します
    • Poisson: 平均 μ^\hat\mu の Poisson(μ^)(\hat\mu) の分位点
    • Binomial: 成功確率 μ^\hat\mu、予測点で指定する試行回数 nnewn_\text{new} を使った Binomial(nnew,μ^)(n_\text{new}, \hat\mu) の分位点
    • Gamma: 平均 μ^\hat\mu・形状 α=1/ϕ^\alpha = 1/\hat\phi の Gamma 分布の分位点
    • Negative Binomial: 平均 μ^\hat\murr(自動推定モードでは r^\hat r、固定モードでは指定値)を使った Negative Binomial 分布の分位点

離散分布(Poisson, Binomial, Negative Binomial)では分位点を保守側(P(Xk)αP(X \le k) \ge \alpha を満たす最小の整数 kk)に丸めます。randomized interval は使いません。このため実際の被覆確率は名目信頼水準以上となり、個体 Binomial(ni=1n_i=1)では分位点候補が {0,1}\{0, 1\} のみで区間としての情報量は限られます。

プラグイン法はパラメータ推定の不確実性を含まないため、実際の被覆確率(区間が真の値を含む確率)が設定した信頼水準を下回ることがあります。この傾向は小標本や観測データ範囲から離れた予測点で顕著になります。小標本で被覆確率が重要な場面では、標本サイズを増やすか、より計算コストの高いブートストラップ等の方法を別途検討してください(MIDAS では現在サポートしていません)。

See also

参考文献

  • Nelder, J. A., & Wedderburn, R. W. M. (1972). Generalized linear models. Journal of the Royal Statistical Society: Series A, 135(3), 370-384. https://www.jstor.org/stable/2344614