機械学習基礎理論独習

誤りがあればご指摘いただけると幸いです。数式が整うまで少し時間かかります。リンクフリーです。

勉強ログです。リンクフリーです
目次へ戻る

線形写像と行列

線形写像

n 次元空間 \mathbb{R}^n から m 次元空間 \mathbb{R}^m への写像 f(\cdot) が線形写像であるとは、
任意の {\bf u},{\bf v}\in\mathbb{R}^n と任意の実数 c に対して、

\begin{eqnarray}
&&f({\bf u}+{\bf v})=f({\bf u})+f({\bf v}),\\
&&f(c{\bf u})=cf({\bf u})\tag{1}
\end{eqnarray}

となることです。

線形写像 f(\cdot) によってベクトル {\bf u}\in\mathbb{R}^nがベクトル {\bf u}'\in\mathbb{R}^m に対応するとします。
ベクトル {\bf u} は成分u_i を縦に並べた列ベクトル({\bf u}=(u_i) と略記)であるとすると、

\begin{eqnarray}
{\bf u}=\sum_{j=1}^n u_j{\bf e}_j\tag{2}
\end{eqnarray}

と書けます。
ただし、{\bf e}_j は第 j 成分が 1、その他は 0n 次元ベクトルです。
\{{\bf e}_1,\ldots,{\bf e}_n\}\mathbb{R}^n の自然基底と呼びます。

同様に、ベクトル {\bf u}'=(u'_i)\in\mathbb{R}^m\mathbb{R}^m の自然基底 \{{\bf e}'_1,\ldots,{\bf e}'_m\} を用いて、

\begin{eqnarray}
{\bf u}'=\sum_{i=1}^m u_i'{\bf e}'_i\tag{3}
\end{eqnarray}

と書けます。

線形写像 f(\cdot) によってベクトル {\bf u}\in\mathbb{R}^n は次のようにベクトル {\bf u}'\in\mathbb{R}^m写像されます。

\begin{eqnarray}
{\bf u}'&=&f({\bf u})\\
&=&f\left(\sum_{j=1}^nu_j{\bf e}_j\right)\\
&=&\sum_{j=1}^nu_jf({\bf e}_j)\tag{4}
\end{eqnarray}

f({\bf e}_j)\mathbb{R}^m のベクトルであるから、\mathbb{R}^m の自然基底 \{{\bf e}'_1,\ldots,{\bf e}'_m\} のある線形結合を用いて

\begin{eqnarray}
f({\bf e}_j)=\sum_{i=1}^ma_{ij}{\bf e}'_i\tag{5}
\end{eqnarray}

と書けます。
(5)を(4)に代入します。

\begin{eqnarray}
{\bf u}'&=&\sum_{j=1}^nu_j\sum_{i=1}^ma_{ij}{\bf e}'_i\\
&=&\sum_{j=1}^n\left(\sum_{i=1}^ma_{ij}u_j\right){\bf e}'_i\tag{6}
\end{eqnarray}

(3)と(6)を比較すると、

\begin{eqnarray}
u'_i=\sum_{i=1}^ma_{ij}u_j\tag{7}
\end{eqnarray}

であることが分かります。

これはベクトル \bf u がベクトル {\bf u}' に、a_{ij} を要素とする行列を掛けた積として、

\begin{eqnarray}
\begin{pmatrix}u'_1\\ \vdots \\ u'_m\end{pmatrix}=\begin{pmatrix}a_{11} & \cdots & a_{1n}\\ \vdots & \ddots & \vdots\\ a_{m1} & \cdots & a_{mn}\end{pmatrix}\begin{pmatrix}u_1\\ \vdots \\ u_n\end{pmatrix}
\end{eqnarray}

と書けることを意味します。
すなわち、\mathbb{R}^n から \mathbb{R}^mへの線形写像は、ある m\times n 行列 \bf A との積で表せます。
この行列 \bf A を、線形写像 f(\cdot) の表現行列といいます。

偉人の名言


神様は私たちに成功してほしいなんて思っていません。
ただ、挑戦することを望んでいるだけよ。
マザー・テレサ

参考文献

線形代数セミナー

動画

目次へ戻る