はじめに
本記事では、モデルパラメータは一定なので、依存性は明記しません。
本記事は、隠れマルコフモデルの最尤推定の続きの記事であり、
HMMの最尤推定のEMアルゴリズムにおけるEステップのとを求めるのが主目的となります。
フォワード-バックワードアルゴリズム
隠れマルコフモデルは木構造を持ち、2段階のメッセージパッシングアルゴリズムによって、潜在変数の事後確率が効率的に求められます。
隠れマルコフモデルにおいては、これは特に、フォワード-バックワードアルゴリズム、あるいは、Baum-Welchアルゴリズムと呼ばれます。
基本アルゴリズムはいくつか変形版がありますが、ここでは-アルゴリズムとして知られる、もっともよく使われるものに焦点を当てます。
隠れマルコフモデルの条件付き独立性
潜在変数の事後確率を求めるために必要なのは、
すべてのにおける、の各々の値に対するです。
それでは、まず条件付き確率を書き下します。(式の説明はまとめて行います。)
条件付き独立の復習をしておきます。
が与えられた下で、はに対して条件付き独立であるとき、以下の式が成り立ちます。
式の説明
のどれかからのどれかへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
のどれかからへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
のどれかからへの経路は、すべてを通り、
そこでhead-to-tailまたはtail-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
のどれかからへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
のどれかからへの経路は、すべてを通り、
そこでtail-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
のどれかからのどれかへの経路は、すべてを通り、
そこでhead-to-tailまたはtail-to-tailで観測されていると仮定されているため、
であり、以下の式が成り立ちます。
式を式に代入します。
式の右辺の因数に着目します。
のどれかからへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、以下の式が成り立ちます。
式を式に代入します。
式の右辺の因数に着目します。
のからのどれかへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、以下の式が成り立ちます。
式を式に代入します。
式より、式が示せました。
式の説明
からのどれかへの経路は、すべてを通り、
そこでhead-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式の説明
からのどれかへの経路は、すべてを通り、
そこでhead-to-tailまたはtail-to-tailで観測されていると仮定されているため、
であり、式が成り立ちます。
式から式まで有向分離を使って説明しましたが、
確率の加法定理、乗法定理用いて、隠れマルコフモデルの同時分布から導くこともできます。
を求める
まず最初に、を求めます。
を計算していきます。
式の変形には、式を用いました。式において、以下のように定義しました。
また、に対応するの値をとします。についても同様です。
の時、式は以下のようになります。
式より、が求まれば、が求まることが分かります。
を求める
を計算していきます。
式の変形は、式を用いました。式の変形は、式を用いました。
を求めるために、式において、の場合を考えると以下のようになります。
式の再帰式のイメージを下に図で示します。(図1におけるはのことだと思います。)
図1
式の再帰を開始するために、初期条件が必要となります。
を求めるために、式において、の場合を考えると以下のようになります。
初期条件の式と再帰式により、が求まることが分かります。
を求める
を計算していきます。
式の変形は、式を用いました。式の変形は、式を用いました。
式は、を用いてを求める後ろ向きメッセージパッシングアルゴリズムになっていることに注意しましょう。
を求めるために、式において、の場合を考えると以下のようになります。
式の再帰式のイメージを下に図で示します。
(図2におけるはのことだと思います。)
図2
式の再帰を開始するために、初期条件が必要となります。
式で、とおきます。
を求めるために、式において、の場合を考えると以下のようになります。
初期条件の式と再帰式により、が求まることが分かります。
完全データの尤度関数の値
式において、について周辺化することにより、完全データの尤度関数を計算します。
式において、とおくと、以下の式が成り立ちます。式は式を利用しています。予測分布
データが観測されたときに、を予測することを考えます。
を計算していきます。
式の変形は、式を用いました。式の変形は、式を用いました。
最後に
実は、このアルゴリズムは数値計算するときに問題があります。
それについて、スケーリング係数 - フォワード-バックワードアルゴリズム(α-βアルゴリズム)の記事で説明しています。
偉人の名言
失敗したところでやめてしまうから失敗になる。
成功するところまで続ければ、それは成功になる。
松下幸之助
動画
なし