目的関数の定義
次元の線形部分空間は、最初の 個の基底ベクトルを使って表現できるので、
各データ点 を近似します。
を近似した点を とすると、以下のようになります。
ここで、 は特定のデータ点に依存しているが、
はすべてのデータ点に共通な定数と考えることができます。
だけデータ点に依存している理由ですが、
いま考えているのはデータの 次元から 次元への次元削減であり、
としてしまうと、 となってしまうからです。
を色々調整して、次元が減ることによる歪みを最小化したいわけです。
近似による歪みを以下で定義し、これを最小化することが目的となります。
以下の式変形で正規直交性 を多用します。
を で微分して、 とします。
の は です。
の 行目で を用いました。
を で微分して、 とします。
の は です。
を に代入します。
より、
となります。
を変形するため、 を計算します。
を に代入します。
の場合の誤差最小化
ここで一旦、2次元のデータ空間 と 次元の主部分空間 を考えることにします。
この場合、制約条件 の下で、射影された分散 を最小化すればよいことになります。
ラグランジュの未定乗数法を用いると、ラグランジュ関数は以下のようになります。
を で微分して、 とおきます。
したがって、 つある固有値のうち小さい方の固有値に対応する固有ベクトル を選んだ時に歪み尺度 の最小値を得ることができます。
よって、主部分空間は大きい方の固有値を持つ固有ベクトルに沿うように選ぶとよいことが分かります。
一般的な の場合の誤差最小化
今度は一般的な について考えます。
この場合も、主成分分析 - 分散最大化による定式化 - 導出その1の記事と同様に、
の固有値のうち小さい方の 個に対応する固有ベクトルを選んだ時に歪み尺度 の最小値を得ることができます。
よって、主部分空間は の固有値のうち大きい方の 個に対応する固有ベクトルを選ぶとよいことが分かります。
これの証明については、PRML演習問題 12.2(標準) をご覧ください。
偉人の名言
他人の芸を見てあいつは下手だなと思ったら そいつは自分と同じくらい
同じくらいだなと思ったら かなり上
うまいなあと感じたら とてつもなく先へ行っている
古今亭志ん生
参考リンク
動画
なし