ChunPom’s diary

数学、物理、機械学習に関する話題。あと院試、資格、大学入試まで。

予測分散と正則化

世の中には多くの分散がある。標本分散、不偏分散、母分散、共分散...。数学的な定義の違い、文脈による呼称の違いなど、統計学の用語はとかく混乱を招きやすい。なまじ身近な数学のため多くの人が多少の知識を持ってしまっているからこそ、逆に言葉の氾濫が助長されている感もある。そこで今回の記事では、「予測分散」を取り上げることにし、機械学習の一つのキーファクターである汎化性との関係を説明することにする。

 

・予測分散とは?

統計の一つのスコープとして、回帰によるモデルで入出力の関係を定量化&予測することがある。この関係は、蓄積された入出力のデータ群から学習される。ここで学習とは、「モデルのパラメータ { \displaystyle \theta} をデータからフィッティングすること」と言い換えることができる。予測分散とは、学習されたパラメータ { \displaystyle \hat{\theta}} が、真のパラメータ値 { \displaystyle \theta^{*}} にからどれほどバラついているかを示す指標である。従って、分散は分散でも、回帰などの予測モデルにおけるパラメータに対する分散を予測分散と呼ぶ。

 

・予測分散の定式化

以下の線形モデルを考えよう(注:一般的に線形モデルとは一次関数のみに限定されない)。

        { \displaystyle \bf{y}\rm{=}X\bf{\beta}\rm{+}\bf{\epsilon}}

 ここで  { \displaystyle \beta} は係数ベクトル、 { \displaystyle \epsilon~N(0,\sigma^2)} はガウシアンノイズを表すベクトルである。 { \displaystyle n} 組のデータ  { \displaystyle (\bf{x}_{\rm{i}},\bf{y}_{\rm{i}})} があるとして係数をフィッティングするには、ノイズの二乗和を最小にすれば良い。すなわち、 

        { \displaystyle \sum_{i}^{n} |\epsilon_i|^2={|\bf{y}\rm{-}X \bf{\beta}|}^{2}  }

 に対する最小値問題(=最小二乗法)となる。右辺を  { \displaystyle \beta^T}偏微分すれば、 { \displaystyle X^T(\bf{y}\rm{-}X \bf{\beta})=0} を得る。 { \displaystyle X^TX} が正則であると仮定すると、 { \displaystyle \bf{\hat{\beta}}\rm{=}(X^TX)^{-1}X^T\bf{y}} を得る。

これの期待値は、 { \displaystyle E(\bf{\hat{\beta}})=(X^TX)^{-1}X^T\rm{E}(\bf{y})} であるが、ノイズの期待値はゼロなので、結局

 { \displaystyle E(\bf{\hat{\beta}})=(X^TX)^{-1}X^TX\beta=\beta} となり、一致性(真のパラメータに期待値が一致すること)が示せた。

従って予測分散は、共分散行列と同様の定義により

 { \displaystyle V(\bf{\hat{\beta}})=\rm{E}( (\bf{\hat{\beta}}-\beta)(\bf{\hat{\beta}}-\beta)^T)}

により定義できる。以下、式の変形をしていくと、

 { \displaystyle V(\bf{\hat{\beta}})=\rm{E}( (X^TX)^{-1}X^T(\bf{y}-\rm{E}(\bf{y}))(X^TX)^{-1}X^T(\bf{y}-\rm{E}(\bf{y}))^T)=(X^TX)^{-1}X^T\rm{E}(\bf{\epsilon}\bf{\epsilon}^T)((X^TX)^{-1}X^T)^T=\sigma^2(X^TX)^{-1}}

を得る。ここで、ガウス分布の性質により、 { \displaystyle E(\bf{\epsilon}\bf{\epsilon}^T)} が対角行列になることを用いた。

上記は計画行列の積が正則である場合を考えた。しかし、例えば同じ入力値セットがデータに含まれる場合など、一般には非正則である。この場合は、正則化を施し、 { \displaystyle X^TX \to{X^TX+\lambda I}} のように単位行列を加える。この場合、パラメータは  { \displaystyle (X^TX+\lambda I)^{-1}X^T\bf{y}} となり、予測分散は   { \displaystyle \sigma^2(X^TX+\lambda I)^{-1}} となる。

正則化のデメリットメリットは以下の通りである。

  メリット:数学的に解析が可能になる、モデルの汎化性が増加(=過学習回避)

  デメリット:  { \displaystyle \lambda} のチューニング必要、不偏性が破れる

機械学習では、如何にモデルの汎化性をあげるかが重要となってくる。実際、正則化のおかげで、予測分散が見かけ上減少していることがわかる。だがそれはまやかしで、学習したパラメータの期待値はもはや真の値からずれていることがわかる。

すなわち、予測分散がいつも「予測精度」の良い指標となるわけではない。この場合、不偏性と予想分散はトレードオフの関係にあると解釈していいだろう。