機械学習基礎理論独習

誤りがあればご指摘いただけると幸いです。数式が整うまで少し時間かかります。リンクフリーです。

勉強ログです。リンクフリーです
目次へ戻る

サポートベクトルマシン

【Python実装 - sklearn使用】digitsデータセットの3と8をSVMで分類

import matplotlib.pyplot as plt from sklearn import datasets, svm from sklearn.metrics import accuracy_score, confusion_matrix from sklearn.metrics import precision_score, recall_score, f1_score # digitsデータをロード digits = datasets.loa…

カーネルによる一般化

ソフトマージンの双対問題は以下でした。ソフトマージンの決定関数は以下でした。双対問題では、決定関数においてはの形でのみ現れることに注意してください。 これは、特徴空間の内積さえ計算できればよいということです。そこで、内積をカーネル関数として…

ソフトマージンの双対問題を最急降下法で解く

ソフトマージンの双対問題は以下でした。制約条件のみに着目して、目的関数にラグランジュの未定乗数法を適用します。をで微分します。をで微分します。 アルゴリズム 1: を初期化します。と設定します。を設定します。2: すべてのに対して次の式でを更新し…

ソフトマージンの双対問題をSMOで解く

ハードマージンの双対問題をSMOで解くと似通った記事になりますので、違いを中心に説明します。 2: の最適化 ソフトマージンの双対問題は以下でした。ハードマージンとの違いはの制約条件を考慮することです。の更新式は以下のようになります。 1: の決定方…

ソフトマージン

ハードマージンとの違い 2値分類について考えます。 訓練データがの個の入力ベクトルと それぞれに対応する目標値からなり、 未知のデータ点はの符号について分類されるとします。と、ここまではハードマージンと同じですが、違いは 訓練データは特徴空間で…

ハードマージンの双対問題をSMOで解く

SMOとは SMO(逐次最小問題最適化法)はサポートベクトルマシンの訓練で生じる2次計画問題を解くためのアルゴリズムです。 1998年にマイクロソフトリサーチのJohn Plattによって発明されました。 SMO概要 以下を繰り返します。 1: ある基準にもとづきインデッ…

ハードマージン

ハードマージン 2値分類について考えます。 訓練データがの個の入力ベクトルと それぞれに対応する目標値からなり、 未知のデータ点はの符号について分類されるとします。訓練データは特徴空間で線形分離可能と仮定します。分類境界と最も近いデータ点までの…

目次へ戻る