データ解析のための統計モデリング入門 5章メモ

5章を読んだ時のメモ。※から始まる文章が読んでる最中に思ったこと。

(この本で扱う)統計モデルの検定

この本では、ネストしているモデル間の比較を対象に、どのような統計モデルに対しても利用可能な尤度比検定を行う。
前章では「よりよい予測を行う」モデルを選択するための基準としてAICを導入した。本章では統計モデルを比較する別の手段としての検定を扱う。
検定では対象とするモデルに対して、「棄却すべき仮説(帰無仮説)」と「帰無仮説が棄却された時に採用される仮説(対立仮説)」を用意し、それらを対象として仮説の検証・採用を行う。
たとえば、モデルの当てはまりの良さなどの量を検定統計量として指定しておき、帰無仮説を「検定の対象であるモデルが真のモデルである」として、その仮説のもとで検定統計量のばらつきが説明可能かを調べる。これは実際に得られた検定統計量が、仮定のモデルの枠組みで(たとえば95%の確率で)取りうる値の範囲に収まるかどうかを調べることになる。この時に、「95%」という閾値は検定を行う人間が定めることになるが、この「95%」という閾値を設けたことを指して「5%の有意水準を設定した」という。この枠組をNeyman-Pearsonの検定の枠組みと呼ぶ。この本ではこれ以外の検定の枠組みは扱わない。

尤度比検定の例

3章で扱った種子数データを用いて、これに対するPoisson分布の一般化線形モデルのうち、一定モデル(Poisson分布の期待値が定数)とxモデル(Poisson分布の期待値が体サイズに対する線形の関数)の比較を行う。ここで一定モデルはxモデルにネストされることに注意。
尤度比検定では、対象となるモデルの尤度比(各モデルの最大尤度の比)の対数(に−2をかけたもの)

を検定統計量として使う。ここで尤度比の対数を逸脱度の差に直した。

Neyman-Pearsonの枠組みで扱う過誤(第一種の過誤)

Neyman-Pearsonの枠組みで扱う枠組みは、「帰無仮説が真のモデルである」とした時に、検定統計量が許容範囲内に収まるかどうかで、収まらなければ帰無仮説を棄却し、残された対立仮説を無条件に採用(※これが真実のモデルかどうかは、この枠組では不明)するというもの。この時、検定統計量が許容範囲内に収まる(収まらないようなことはそう起こりえない)とした(そういった統計モデルを採用した)ことを、第一種の過誤と呼ぶ。

実際の検定の方法(1)ーパラメトリックブートストラップ法

実際の検定にあたっては、検定統計量の分布を得る必要がある。ここではまず愚直だが必ず可能である方法として、パラメトリックブートストラップ法を扱う。これは帰無仮説で採用しているモデルを真のモデルと考え、そこから繰り返しデータを生成して、それぞれのデータに対して各モデルの推定を行い、決定したそれぞれのモデル間の逸脱度の差を求めることで、生成したデータに対する逸脱度の差の分布を求めるというものである。

実際の検定の方法(2)ーカイ2乗分布による近似計算

パラメトリックブートストラップ法では検討したい統計モデルからデータを生成し、直接検定統計量の分布を計算したが、仮に検定統計量がカイ2乗分布に従うとすれば直ちに検定を行うことが可能である。このような近似はサンプルサイズが大きい場合に有効であることに留意が必要である。

AICによるモデル選択と検定の差

AICによるモデル選択では、「良いモデル」の基準は平均対数尤度と、明確である。一方で検定は、安全に帰無仮説を棄却する手段を与えるが、残された対立仮説が「良いモデル」かは明らかではないことに注意が必要である。