機械学習基礎理論独習

誤りがあればご指摘いただけると幸いです。数式が整うまで少し時間かかります。リンクフリーです。

勉強ログです。リンクフリーです
目次へ戻る

ヘッセ行列をベクトルによる微分で表す

ヘッセ行列の定義

関数f({\bf x})のヘッセ行列は以下で定義されます。

\begin{eqnarray}
{\rm \bf H}=\nabla\nabla f=\begin{pmatrix}
\frac{\partial^2f}{\partial x_1^2} & \frac{\partial^2f}{\partial x_1\partial x_2} & \cdots & \frac{\partial^2f}{\partial x_1\partial x_n}\\
\frac{\partial^2f}{\partial x_2 \partial x_1} & \frac{\partial^2f}{\partial x_2^2} & \cdots & \frac{\partial^2f}{\partial x_2\partial x_n}\\
\vdots & \vdots & \ddots & \vdots\\
\frac{\partial^2f}{\partial x_n \partial x_1} & \frac{\partial^2f}{\partial x_n\partial x_1} & \cdots & \frac{\partial^2f}{\partial x_n^2}\\
\end{pmatrix}\tag{1}
\end{eqnarray}

上記のヘッセ行列の行列式|{\bf H}|はヘシアンまたはヘッシアンと呼ばれます。
また、ヘッセ行列は対象行列です。

ヘッセ行列をベクトルの微分で表す

Matrix calculus- Wikipediaによると、ヘッセ行列はベクトルによる微分を使って

f:id:olj611:20211210235706p:plain:w800

と書けるようです。

ここで、

\begin{eqnarray}
\frac{\partial^2f}{\partial{\bf x}\partial{\bf x}^\top}=\frac{\partial}{\partial{\bf x}}\left(\frac{\partial f}{\partial{\bf x}}\right)\tag{2}
\end{eqnarray}

です。(だと思います。)

PRMLによると、ベクトルのベクトルによる微分は、Numerator Layout なので、ヘッセ行列 \rm\bf H はベクトル微分を使って次のように書けます。

\begin{eqnarray}
&&{\rm {\bf H}}^\top= \frac{\partial^2f}{\partial{\bf x}\partial{\bf x}^\top}\\
&&\Leftrightarrow {\rm {\bf H}} = \left(\frac{\partial^2f}{\partial{\bf x}\partial{\bf x}^\top}\right)^\top=\left(\frac{\partial}{\partial{\bf x}}\left(\frac{\partial f}{\partial{\bf x}}\right)\right)^\top\tag{3}
\end{eqnarray}

(3) を計算して、(3)(1)と等しいことを示します。

\begin{eqnarray}
 {\rm {\bf H}} &=&\left(\dfrac{\partial^2f}{\partial{\bf x}\partial{\bf x}^\top}\right)^\top\\
&=&\left(\frac{\partial}{\partial{\bf x}}\left(\frac{\partial f}{\partial{\bf x}}\right)\right)^\top\\
&=&\left(\frac{\partial}{\partial{\bf x}}\begin{pmatrix}\frac{\partial f}{\partial x_1}\\ \vdots\\ \frac{\partial f}{\partial x_n}\end{pmatrix}\right)^\top\\
&=&\begin{pmatrix}
\frac{\partial^2f}{\partial x_1^2} & \frac{\partial^2f}{\partial x_2\partial x_1} & \cdots & \frac{\partial^2f}{\partial x_n\partial x_1}\\
\frac{\partial^2f}{\partial x_1 \partial x_2} & \frac{\partial^2f}{\partial x_2^2} & \cdots & \frac{\partial^2f}{\partial x_n\partial x_2}\\
\vdots & \vdots & \ddots & \vdots\\
\frac{\partial^2f}{\partial x_1 \partial x_n} & \frac{\partial^2f}{\partial x_2\partial x_n} & \cdots & \frac{\partial^2f}{\partial x_n^2}\\
\end{pmatrix}^\top\\
&=&\begin{pmatrix}
\frac{\partial^2f}{\partial x_1^2} & \frac{\partial^2f}{\partial x_1\partial x_2} & \cdots & \frac{\partial^2f}{\partial x_1\partial x_n}\\
\frac{\partial^2f}{\partial x_2 \partial x_1} & \frac{\partial^2f}{\partial x_2^2} & \cdots & \frac{\partial^2f}{\partial x_2\partial x_n}\\
\vdots & \vdots & \ddots & \vdots\\
\frac{\partial^2f}{\partial x_n \partial x_1} & \frac{\partial^2f}{\partial x_n\partial x_1} & \cdots & \frac{\partial^2f}{\partial x_n^2}\\
\end{pmatrix}\tag{4}
\end{eqnarray}

(4) より、(3)(1)と等しいことを示せました。

偉人の名言

f:id:olj611:20210416234602p:plain:w300
お前らが休んでいるとき、俺は練習している。
お前らが寝ているとき、俺は練習している。
お前らが練習しているときは、当然俺も練習している。
メイウェザー

参考文献

パターン認識機械学習 上巻

目次へ戻る