2017-09-20 11 views
0

私はcoursera mlコースをやったことがあります。今は少し変わったscikit-learnロジスティック回帰を見ています。私はシグモイド関数を使っていますが、コスト関数はy = 0とy = 1の2つに分けられます。しかし、シキットの学習は、私が本当に意味をなさない1つの関数(これは一般化ロジスティック関数であることがわかった)を持っています。ロジスティック回帰コスト関数scikit learn

http://scikit-learn.org/stable/_images/math/760c999ccbc78b72d2a91186ba55ce37f0d2cf37.png 私は申し訳ありませんが、画像を投稿するには十分な評判がありません。

したがって、y = 0の場合、コスト関数は常にこのログ(e^0 + 1)の値よりも大きいので、Xまたはwが何であっても問題はありません。誰かが私にそれを説明できますか?

+0

学習したロジスティック回帰の独自の定義を表示します。 – sascha

+1

この回答はあなたに役立つと思います。 [答え](https://stats.stackexchange.com/questions/235514/how-do-i-get-cost-function-of-logistic-regression-in-scikit-learn-from-log-likel) ! – jinyu0310

答えて

0

私が正しければ、あなたはこの式にある値を-1または1と仮定することができます(@ jinyu0310によって与えられたリンクで得られたもの)。通常は、あなたが

enter image description here

(画像として挿入式のため申し訳ありませんが、ここではラテックスを使用することはできません、画像がgoo.gl/M53u44から来ている)(正則で)このコスト関数を使用しますyi = 0またはyi = 1のときに常に2つの項が役割を果たす。私はscikitがこの公式で使っている表記法についてより良い説明を見つけようとしていますが、これまでのところ運はありません。

希望はあなたを助けます。正規化係数でコスト関数を書く別の方法です。すべてのものの前にある一定の要素は、最適化プロセスでは役割を果たさないことにも留意してください。あなたは最小を見つけたいと思うので、すべてを倍増させる全体的な要因には関心がありません。

関連する問題