Week7: SVM
今日はサポートベクターマシン(SVM)。
率直に言ってなんだか狐につままれたような気分です。
あいかわらずDr. Ngの解説は健在なのですが、
「これでSVMを使えるようになった!」という実感を得られませんでした。
最後のクイズや宿題をやれば、使える気分になるのかなーと思いながら
説明を聞いていったのですが、最後までなんだか腑に落ちない感覚がぬぐえませんでした。
現時点におけるSVMに対する理解は以下のようなものです。
・ロジスティック回帰の改良版(?)
・コスト関数にmarginを設けた
・SVMはmarginを最大にするようにDecision boundaryを決定するため、直感的に「もっともらしい」分類が可能(そのためにはパラメータCをうまく設定してやる必要がある)
自分で書いていても、他人に説明できる気がしません。
marginが導入されたあたりから、僕の理解がいまいち追いついていないような気がします。
時間があるときにもう一度見直してみようと思います。
そんな読者の不安を察してか、Dr. Ngは終盤で
「アルゴリズムよりもデータの量や実装面でのスキル(エラー分析やデバッグ、フィーチャーのデザイン)のほうが重要」なんて言い出します。
それをいうと元も子もないような気がしますが
金言であるような気もします。
データがないのに解析方法ばかり気にしててもしょうがないですもんね。
実験屋としてはいかにきれいなデータ(実験計画も含めて)とってくるかっていうのが肝です。
Dr. Ngは上述の金言を踏まえて
ロジスティック、ニューラルネットワーク、SVMを機械学習(教師あり)の3大アルゴリズムとして
習得することをお勧めしていました。
このレクチャーのいいところはDr. Ngがどこが大切で、なにがそんなに大切でないかということを
わりときっぱりといってくれるところです。
初学者にはたいへんありがたい。
率直に言ってなんだか狐につままれたような気分です。
あいかわらずDr. Ngの解説は健在なのですが、
「これでSVMを使えるようになった!」という実感を得られませんでした。
最後のクイズや宿題をやれば、使える気分になるのかなーと思いながら
説明を聞いていったのですが、最後までなんだか腑に落ちない感覚がぬぐえませんでした。
現時点におけるSVMに対する理解は以下のようなものです。
・ロジスティック回帰の改良版(?)
・コスト関数にmarginを設けた
・SVMはmarginを最大にするようにDecision boundaryを決定するため、直感的に「もっともらしい」分類が可能(そのためにはパラメータCをうまく設定してやる必要がある)
自分で書いていても、他人に説明できる気がしません。
marginが導入されたあたりから、僕の理解がいまいち追いついていないような気がします。
時間があるときにもう一度見直してみようと思います。
そんな読者の不安を察してか、Dr. Ngは終盤で
「アルゴリズムよりもデータの量や実装面でのスキル(エラー分析やデバッグ、フィーチャーのデザイン)のほうが重要」なんて言い出します。
それをいうと元も子もないような気がしますが
金言であるような気もします。
データがないのに解析方法ばかり気にしててもしょうがないですもんね。
実験屋としてはいかにきれいなデータ(実験計画も含めて)とってくるかっていうのが肝です。
Dr. Ngは上述の金言を踏まえて
ロジスティック、ニューラルネットワーク、SVMを機械学習(教師あり)の3大アルゴリズムとして
習得することをお勧めしていました。
このレクチャーのいいところはDr. Ngがどこが大切で、なにがそんなに大切でないかということを
わりときっぱりといってくれるところです。
初学者にはたいへんありがたい。
コメント
コメントを投稿