機械学習基礎理論独習

誤りがあればご指摘いただけると幸いです。数式が整うまで少し時間かかります。リンクフリーです。

勉強ログです。リンクフリーです
目次へ戻る

逐次学習 - 確率的勾配降下法

バッチ手法・逐次学習

すべての訓練データ集合を一度に処理する最尤推定のような方法はバッチ手法と呼ばれます。
バッチ手法の問題点は、大規模なデータ集合に対して計算に時間がかかるという点です。

データ集合が大規模なときには、データ点を一度に 1 つだけ用いてモデルのパラメータを順次更新してしいく
逐次学習(あるいはオンライン学習としても知られる)アルゴリズムを使うとよいです。

確率的勾配降下法

逐次学習のアルゴリズムは、以下のように確率的勾配降下法を適用することにより得られます。
誤差関数が E=\sum_n E_n のようにデータ点の和からなるとき、パターン n が与えられた(n はランダムに選ぶことが多い)とき、
確率的勾配降下法では、パラメータベクトル \bf w

\begin{eqnarray}
{\bf w}^{(\tau+1)}={\bf w}^{\tau}-\eta \delta E_n\tag{1}
\end{eqnarray}

を用いて更新します。
\tau は繰り返しの回数で、\eta は学習率パラメータです。
{\bf w}^(0) は適当に初期化しておく必要があります。

偉人の名言


数学は、人間精神の栄光のためにある。
ヤコビ

参考文献

パターン認識機械学習 上巻 p141-p142

目次へ戻る