我々はパラメータのセットを見つけようとして正則化項ではロジスティック回帰の大きなマージンの分類器ですか?</p> <p>は、例えば者は、この画像を見てみましょう:私はSVMに大きなマージン効果を理解したよう
SVMの最適化の目的で(パラメータベクトル)θのノルムは小さい。だから、小さなベクトルであるベータシータと、このベクトルの正例(p)の投影(内積のための小さなシータベクトルを補う)を見つけなければなりません。同時に大きなpは大きなマージンを与えます。この画像では、我々は理想的なシータ、およびそれとの大きなP(と大きなマージン)を見つける:
私の質問:
ロジスティック回帰は、大きなマージン分類器ではないのはなぜ? LRでは、同様の方法で正則化項のシータベクトルを最小化します。 私は何かを理解していなかったかもしれません。
私はCoursera mlクラスの画像と理論を使用しました。