---
title: 統計用語集
description: MIDAS で使われる統計用語の定義集。推定量、収束概念、一致性、不偏性、漸近正規性、十分統計量、最尤推定量、尤度、逸脱度、過分散、分散関数に加え、カーネル密度推定や LOESS など可視化に関する手法を解説します。
priority: 0.5
---

# 統計用語集 {#glossary-of-statistical-terms}

MIDAS のドキュメントで使われる統計用語の定義集です。用語は英語アルファベット順です。

## 漸近正規性（asymptotic normality） {#asymptotic-normality}

サンプルサイズ $n \to \infty$ で[推定量](#estimator)の分布が正規分布に[分布収束](#convergence-in-distribution)する性質です。適切な正規化のもとで

$$
\sqrt{n}(\hat\theta_n - \theta) \xrightarrow{d} N(0, V)
$$

が成り立ちます。矢印の上の $d$ は distribution の頭文字です。$V$ は漸近分散（$\hat\theta_n$ がベクトルの場合は漸近共分散行列）で、推定量の種類によって異なります。[最尤推定量](#mle)は正則条件のもとで漸近正規性を持ちます。誤差の正規性を仮定しない OLS（Ordinary Least Squares、最小二乗法）でも、大標本では中心極限定理により $\sqrt{n}(\hat\beta - \beta)$ が正規分布に分布収束します（[OLS の基礎](concepts-regression)）。

## 漸近有効性（asymptotic efficiency） {#asymptotic-efficiency}

[正則条件](#mle)のもとで、$\sqrt{n}(\hat\theta_n - \theta)$ の漸近分散が Fisher 情報量行列の逆行列 $I(\theta)^{-1}$ に一致する性質です。ここで $I(\theta)$ は1観測あたりの Fisher 情報量行列を指します。Cramér-Rao の情報量不等式は、有限標本において正則な不偏推定量の分散がサンプル全体の Fisher 情報量 $nI(\theta)$ の逆行列 $(nI(\theta))^{-1}$ 以上になることを保証します。漸近有効性はこの下界を $n \to \infty$ で達成することを意味し、$\hat\theta_n$ の分散は $I(\theta)^{-1}/n$ のオーダーに収束します。[最尤推定量](#mle)は正則条件のもとで漸近有効性を持ちます。

## 一致性（consistency） {#consistency}

[推定量](#estimator) $\hat\theta_n$ がサンプルサイズ $n \to \infty$ で真のパラメータ $\theta$ に[確率収束](#convergence-in-probability)する性質です。$\hat\theta_n \xrightarrow{p} \theta$ と書きます。

一致性は推定量の基本的な要件で、サンプルを増やせば正しい値に近づくことを保証します。ただし一致性だけでは、サンプルサイズが有限のときの推定精度については何も言えません。OLS 推定量は $\operatorname{plim}(X'\varepsilon/n) = 0$（$\operatorname{plim}$ は[確率収束](#convergence-in-probability)の極限値を表す記号）かつ $X'X/n$ の確率極限 $Q = \operatorname{plim}(X'X/n)$ が正則（非特異）であるとき一致性を持ちます。この条件には等分散性や誤差の無相関は含まれません（[OLS の基礎](concepts-regression)）。

## 分布収束（convergence in distribution） {#convergence-in-distribution}

確率変数の列 $X_n$ の分布が、$n \to \infty$ で別の分布に近づく収束概念です。$X_n$ の分布関数 $F_n(x)$ が極限の分布関数 $F(x)$ の各連続点で $F_n(x) \to F(x)$ を満たすとき、$X_n \xrightarrow{d} X$ と書きます。矢印の上の $d$ は distribution の頭文字です。

分布収束は $X_n$ と $X$ の分布の形が近づけば成立する収束概念で、$X_n$ 自体の値と $X$ 自体の値が近いことは要求しません。[確率収束](#convergence-in-probability)が $X_n$ と $X$ の値そのものの近さ（$|X_n - X|$ が確率的に小さくなる）を要求するのとは対照的です。確率収束は分布収束を含意します。逆は一般には成り立ちませんが、極限が定数の場合に限り、定数への分布収束は定数への確率収束と同値です。[漸近正規性](#asymptotic-normality)はこの概念で定義されます。

## 確率収束（convergence in probability） {#convergence-in-probability}

確率変数の列 $X_n$ が確率変数 $X$ に近づく収束概念です。任意の $\varepsilon > 0$ に対して

$$
P(|X_n - X| > \varepsilon) \to 0 \quad (n \to \infty)
$$

が成り立つとき、$X_n \xrightarrow{p} X$ と書きます。矢印の上の $p$ は probability の頭文字です。$X$ が定数 $c$ のとき、$n$ が大きくなるにつれて $X_n$ が $c$ から離れる確率がゼロに近づくことを意味します。[推定量](#estimator)の[一致性](#consistency)はパラメータ $\theta$（定数）への確率収束として定義されます。$\operatorname{plim} X_n = c$ は $X_n \xrightarrow{p} c$ と同じ意味で、probability limit の略です。

## Delta 法（delta method） {#delta-method}

推定量の非線形関数 $g(\hat\theta)$ の分散を近似する手法です。$g$ を真の値 $\theta$ の周りで1次テイラー展開し、

$$\operatorname{Var}(g(\hat\theta)) \approx g'(\theta)^2 \operatorname{Var}(\hat\theta)$$

と近似します。多変量の場合は勾配ベクトル $\nabla g$ と分散共分散行列 $\Sigma$ を使って $\nabla g^\top \Sigma \, \nabla g$ です。

Delta 法は[漸近正規性](#asymptotic-normality)に依存するため、小標本では近似精度が下がります。$g$ の曲率が大きい領域や $\hat\theta$ の分散が大きい場合にも、線形近似の誤差が無視できなくなります。また、真の値 $\theta$ において $g'(\theta) = 0$ となる点では一次 Delta 法が退化して $g(\hat\theta)$ の漸近分布は正規にならず、二次の項を含めた定式化（二次 Delta 法）が必要になります。

## Fieller 法（Fieller's method） {#fieller-method}

2つのパラメータの比 $\rho = \beta_0 / \beta_1$ の信頼区間を求める方法です。推定量 $(\hat\beta_0, \hat\beta_1)$ が二変量正規分布に従うことを利用します。

真の比が $\rho$ であるという仮説のもとでは $\beta_0 - \rho \beta_1 = 0$ なので、$\hat\beta_0 - \rho \hat\beta_1$ は期待値ゼロ、分散

$$
V(\rho) = \operatorname{Var}(\hat\beta_0) - 2\rho \operatorname{Cov}(\hat\beta_0, \hat\beta_1) + \rho^2 \operatorname{Var}(\hat\beta_1)
$$

の正規分布に従います。検定統計量 $(\hat\beta_0 - \rho \hat\beta_1)^2 / V(\rho)$ は $\chi^2_1$ 分布に従うため、これが棄却限界値 $c$（$\chi^2_1$ の上側 $\alpha$ 点）を超えない $\rho$ の集合が信頼水準 $1 - \alpha$ の信頼集合です。不等式 $(\hat\beta_0 - \rho \hat\beta_1)^2 \le c \cdot V(\rho)$ を $\rho$ について整理すると、二次不等式

$$
A \rho^2 + B \rho + C \le 0
$$

が得られます。ここで $A = \hat\beta_1^2 - c \cdot \operatorname{Var}(\hat\beta_1)$、$B = -2\bigl(\hat\beta_0 \hat\beta_1 - c \cdot \operatorname{Cov}(\hat\beta_0, \hat\beta_1)\bigr)$、$C = \hat\beta_0^2 - c \cdot \operatorname{Var}(\hat\beta_0)$ です。係数 $A$ の符号と判別式 $D = B^2 - 4 A C$ の符号によって信頼集合の形状が変わります。

- $A > 0$ の場合、信頼集合は有限区間 $[\rho_-, \rho_+]$ になります。$A > 0$ は $\hat\beta_1^2 / \operatorname{Var}(\hat\beta_1) > c$ と同値で、同じ $c$ を棄却限界値とする $\hat\beta_1$ の Wald 検定が $\beta_1 = 0$ を棄却することに相当します
- $A < 0$ かつ $D \ge 0$ の場合、信頼集合は $(-\infty, \rho_-] \cup [\rho_+, \infty)$ の非有界な和集合になります。$\hat\beta_1$ の Wald 検定が $\beta_1 = 0$ を棄却しない状況に対応します
- $A < 0$ かつ $D < 0$ の場合、信頼集合は実数全体 $\mathbb{R}$ になります。$\rho$ について情報が得られないことを意味します

Delta 法が $g(\hat\beta_0, \hat\beta_1) = \hat\beta_0 / \hat\beta_1$ をテイラー展開で線形近似するのに対し、Fieller 法はこの線形化を経由しません。$\hat\beta_1$ がゼロに近い場合、Delta 法の近似は外れますが、Fieller 法ではその不確実性が信頼集合の非有界化や全実数化として現れます。推定量が正規分布に正確に従うときは厳密な信頼集合で、GLM のように漸近的にしか正規性が成り立たないときは近似になります。分散・共分散が既知のときは上記のとおり $\chi^2_1$ を用いますが、OLS のように残差から分散を推定する場合は棄却限界値として $t^2_{n-p}$（$= F_{1, n-p}$）を用いるのが本来の定式化です（[Fieller, 1954](#ref-fieller-1954)）。

## 逸脱度（deviance） {#deviance}

モデルの適合度を測る指標で、飽和モデルとの[対数尤度](#likelihood)の差に基づきます:

$$
D = 2(\ell_{\text{saturated}} - \ell_{\text{model}})
$$

飽和モデルは各共変量パターンに個別のパラメータを割り当て、データを完全に再現するモデル（飽和モデルの残差は常にゼロ）です。共変量パターンとは説明変数の値の組み合わせが同一の観測をまとめたグループを指します。個体レベルの観測では通常パラメータ数が観測数に等しくなりますが、あらかじめ共変量パターンごとに成功回数・試行回数の形で集計されたデータではパターン数に等しくなります。上式の $D$ は McCullagh & Nelder の慣例では scaled deviance と呼ばれ、これに分散パラメータ $\phi$ をかけ戻した $D^* = \phi D$ が unscaled deviance（一般に「逸脱度」と呼ばれる量）です。Poisson や Binomial では $\phi = 1$ のため両者は一致します。Gaussian ファミリーでは scaled deviance が当てはめモデルの残差平方和を誤差分散 $\sigma^2$ で正規化した値 $\text{RSS}_\text{model}/\sigma^2$ に一致し、unscaled deviance は $\text{RSS}_\text{model}$ そのものです。MIDAS は unscaled 形式の逸脱度を返します。逸脱度はこの関係を任意の指数型分布族に一般化した適合度指標で、値が大きいほどモデルの適合が悪いことを示します。GLMM（Generalized Linear Mixed Model、一般化線形混合モデル）ではペナルティ付き逸脱度がパラメータ推定に使われます（[GLMM の基礎](concepts-glmm#parameter-estimation)）。

## 推定量（estimator） {#estimator}

データから未知のパラメータを推測するための関数です。データが確率変数である限り推定量自体も確率変数であり、標本ごとに異なる値を取ります。推定量にデータを代入して得た具体的な数値を推定値（estimate）と呼びます。

たとえば標本平均 $\bar{X} = \frac{1}{n}\sum_{i=1}^n X_i$ は母平均 $\mu$ の推定量です。推定量の良さは[一致性](#consistency)、[不偏性](#unbiasedness)、[漸近正規性](#asymptotic-normality)などの性質で評価されます。

## カーネル密度推定（kernel density estimation） {#kde}

データの確率密度関数を推定するノンパラメトリックな手法です。各データ点にカーネル関数（通常はガウシアンカーネル）を配置し、それらを合算することで滑らかな密度曲線を得ます。$n$ 個のデータ $x_1, \ldots, x_n$ に対して、推定密度は

$$
\hat{f}(x) = \frac{1}{n h} \sum_{i=1}^{n} K\!\left(\frac{x - x_i}{h}\right)
$$

です。$K$ はカーネル関数、$h$ はバンド幅です。バンド幅はカーネル関数の広がりを制御するパラメータで、大きいほど滑らかな曲線になり、小さいほどデータの細かい構造を反映します。

ヒストグラムがビンの区切り位置に依存するのに対し、カーネル密度推定はデータから直接滑らかな分布を推定します。MIDAS では [Graph Builder](graph-basics) のヒストグラムの密度曲線（1変量）と散布図の密度等高線（2変量）にこの手法を使用しています。

1変量の場合、バンド幅は Silverman の経験則 $h = 0.9 \cdot \min(\hat\sigma, \mathrm{IQR}/1.34) \cdot n^{-1/5}$ で自動計算されます。$\hat\sigma$ は不偏分散（$n-1$ 除算）の平方根です。この経験則は単峰で正規分布に近い分布を前提として導出されているため、多峰分布では過度に平滑化されてピークが潰れることがあります。ビン数を変えたヒストグラムと見比べて、密度曲線が分布の特徴を適切に捉えているか確認してください。

2変量の場合、バンド幅は Scott's rule に基づき $h = n^{-1/6} \cdot \bar\sigma$（$\bar\sigma$ は X・Y 方向の標準偏差の平均）で自動計算されます。Scott's rule は本来各軸ごとに $h_j = n^{-1/6} \cdot \hat\sigma_j$ と異なるバンド幅を使いますが、MIDAS では標準偏差の平均による等方的な単一バンド幅を採用しています。両軸のスケールが大きく異なる場合は一方の軸で過度に平滑化される可能性があります。

## LOESS（局所重み付け回帰） {#loess}

局所的な重み付き回帰を繰り返すことで、データの全体的なトレンドを滑らかな曲線で表現するノンパラメトリック回帰手法です。LOcally Estimated Scatterplot Smoothing の略です。

各点 $x_0$ について、近傍のデータ点に距離に応じた重みを付けて1次多項式（局所線形回帰）を当てはめ、$x_0$ での予測値を求めます。この手順をすべての点について繰り返すことで曲線全体を構成します。重み関数にはトリキューブ関数 $w(u) = (1 - |u|^3)^3$（$|u| < 1$、$|u| \ge 1$ では $w(u) = 0$）が使われます。$u$ は $x_0$ からの距離を近傍の最大距離で割った正規化値で、近傍外の点には重みが与えられません。

スパンは0から1の値を取り、各点の予測に使用するデータ点の割合を指定するパラメータです。値が大きいほど多くのデータ点を使って回帰するため、滑らかな曲線になります。MIDAS の [Graph Builder](graph-basics) では日時ヒストグラムのトレンドラインに LOESS を使用しており、スパンは0.75（全データ点の75%を近傍として使用）に固定されています。

## 尤度と対数尤度（likelihood / log-likelihood） {#likelihood}

尤度は確率密度（質量）関数 $f(y \mid \theta)$ と同じ数式を、$\theta$ の関数として読み替えたものです。$f(y \mid \theta)$ を $y$ の関数として見れば確率密度（質量）関数、$\theta$ の関数として見れば尤度関数です。1つの観測に対して $L(\theta) = f(y \mid \theta)$、独立な $n$ 個の観測に対して $L(\theta) = \prod_{i=1}^n f(y_i \mid \theta)$ です。

対数尤度は尤度の自然対数 $\ell(\theta) = \log L(\theta)$ です。独立な観測の尤度は積になりますが、対数を取ると和になるため数値計算で扱いやすくなります。$\log$ は単調増加関数なので、尤度を最大にする $\theta$ と対数尤度を最大にする $\theta$ は同じです。

GLM（Generalized Linear Model、一般化線形モデル）のパラメータ推定（[GLM の基礎](concepts-glm#parameter-estimation-irls)）、GLMM の Laplace 近似（[GLMM の基礎](concepts-glmm#parameter-estimation)）、Cox モデルの部分尤度（[生存分析の基礎](concepts-survival#partial-likelihood)）はいずれも対数尤度に基づいています。

## 最尤推定量（maximum likelihood estimator） {#mle}

[尤度](#likelihood)関数を最大化するパラメータの値 $\hat\theta_{\text{ML}} = \arg\max_\theta L(\theta; y)$ です。

モデルが正しく特定されており、正則条件を満たす場合、[一致性](#consistency)、[漸近正規性](#asymptotic-normality)、[漸近有効性](#asymptotic-efficiency)を持ちます。正則条件とは、尤度関数が十分に滑らかで、パラメータが境界上にないことなど、漸近理論の適用に必要な技術的条件の総称です。GLM では解析解が得られないため IRLS（Iteratively Reweighted Least Squares、反復再重み付け最小二乗法）で数値的に求めます（[GLM の基礎](concepts-glm#parameter-estimation-irls)）。

## 過分散（overdispersion） {#overdispersion}

データの分散がモデルの仮定する分散より大きい状態です。Poisson や Binomial では分布の構造から分散パラメータ $\phi = 1$ が定まり、これに基づいて標準誤差を計算します。実際の分散がこの理論的分散を超えている場合、標準誤差が過小になります。その結果、信頼区間が狭くなりすぎ、係数に対する Wald 検定や尤度比検定の偽陽性率が名目水準を超えます。Poisson で過分散が検出された場合、Negative Binomial に切り替えることで過分散を明示的にモデル化できます。Binomial の過分散への対処については [GLM の基礎](concepts-glm#variance-functions-and-overdispersion)を参照してください。なお Binomial の試行回数が $n_i = 1$ の場合（Bernoulli、ロジスティック回帰）は、平均 $\mu_i$ が決まれば周辺分散 $\mu_i(1-\mu_i)$ も一意に決まるため、個体レベルのデータでは Pearson $\chi^2$ や逸脱度で過分散を検出できません。ただしクラスタ構造や繰り返し測定に由来する余剰分散は、GLMM や準尤度の枠組みで別途扱う問題として発生しうります。過分散の古典的な検出と対処が意味を持つのは試行回数が 2 以上の grouped Binomial です。

## 十分統計量（sufficient statistic） {#sufficient-statistic}

パラメータ $\theta$ に関するデータの情報をすべて保持する統計量です。$T(X)$ が $\theta$ の十分統計量であるとは、$T(X)$ の値が与えられたもとでのデータ $X$ の条件付き分布が $\theta$ に依存しないことを意味します。Fisher-Neyman の分解定理により、$T(X)$ が十分統計量である必要十分条件は同時密度（質量）関数が $f(x|\theta) = g(T(x), \theta) \cdot h(x)$ と分解できることです。

十分統計量にデータを集約しても $\theta$ の推定に必要な情報は失われません。GLM で正準リンクを使うと $X'y$ が $\beta$ の十分統計量になり、[対数尤度](#likelihood)が $\beta$ について凹になります。計画行列がフルランクであれば[最尤推定量](#mle)が一意に定まります。IRLS も通常は安定して収束します（[GLM の基礎](concepts-glm#link-functions)）。

## 不偏性（unbiasedness） {#unbiasedness}

[推定量](#estimator)の期待値が真のパラメータに一致する性質で、$E[\hat\theta] = \theta$ と書きます。

OLS 推定量は $E[\varepsilon \mid X] = 0$（strict exogeneity、厳密外生性）のもとで不偏です。この条件は「$X$ の任意の可測関数と $\varepsilon$ が無相関」という意味で、単なる線形無相関 $\operatorname{Cov}(X, \varepsilon) = 0$ よりも強い条件です。$E[\varepsilon] = 0$（無条件の平均ゼロ）や $\operatorname{Cov}(X, \varepsilon) = 0$ だけでは OLS の不偏性は保証されません。さらに等分散・無相関（$\operatorname{Var}(\varepsilon \mid X) = \sigma^2 I$）を仮定すると、Gauss-Markov の定理により線形不偏推定量の中で分散が最小になります（BLUE: Best Linear Unbiased Estimator）（[OLS の基礎](concepts-regression)）。[最尤推定量](#mle)は一般に有限標本では不偏ではありません。

## 分散関数（variance function） {#variance-function}

指数型分布族において平均 $\mu$ と分散の関係を規定する関数 $V(\mu)$ です。$\operatorname{Var}(Y) = V(\mu) \cdot a(\phi)$ が成り立ちます。$V(\mu)$ は対数分配関数 $b(\theta)$ の二階微分 $b''(\theta)$ を $\mu$ の関数として書き直したものです。

$a(\phi)$ はスケーリング係数で、ファミリーによって形が異なります。Gaussian と Gamma では $a(\phi) = \phi$ と分散パラメータ $\phi$ そのものですが、Poisson では $a(\phi) = 1$ の定数、Binomial では $a(\phi) = 1/n_i$ と各観測の試行回数 $n_i$ に依存します。ここでの $n_i$ は $i$ 番目の観測における試行回数で、サンプルサイズ（観測数）$n$ とは別物である点に注意してください。Poisson と Binomial では $\phi$ は $1$ に固定されており、$\phi$ を介したスケーリングの余地はありません。

Poisson では $V(\mu) = \mu$、Binomial では $V(\mu) = \mu(1-\mu)$、Gamma では $V(\mu) = \mu^2$ です（[GLM の基礎](concepts-glm#variance-functions-and-overdispersion)）。

## 参考文献 {#references}

- <span id="ref-fieller-1954">Fieller, E. C. (1954). Some problems in interval estimation. *Journal of the Royal Statistical Society: Series B*, 16(2), 175-185. https://www.jstor.org/stable/2984043</span>
