私はcoursera mlコースをやったことがあります。今は少し変わったscikit-learnロジスティック回帰を見ています。私はシグモイド関数を使っていますが、コスト関数はy = 0とy = 1の2つに分けられます。しかし、シキットの学習は、私が本当に意味をなさない1つの関数(これは一般化ロジスティック関数であることがわかった)を持っています。ロジスティック回帰コスト関数scikit learn
http://scikit-learn.org/stable/_images/math/760c999ccbc78b72d2a91186ba55ce37f0d2cf37.png 私は申し訳ありませんが、画像を投稿するには十分な評判がありません。
したがって、y = 0の場合、コスト関数は常にこのログ(e^0 + 1)の値よりも大きいので、Xまたはwが何であっても問題はありません。誰かが私にそれを説明できますか?
学習したロジスティック回帰の独自の定義を表示します。 – sascha
この回答はあなたに役立つと思います。 [答え](https://stats.stackexchange.com/questions/235514/how-do-i-get-cost-function-of-logistic-regression-in-scikit-learn-from-log-likel) ! – jinyu0310