ロジスティック回帰式の導出における最小値の背後にある考え方を誤解しています。ロジスティック回帰におけるコスト関数の局所的および全体的な最小値
考えられるのは、仮説を可能な限り増加させる(つまり予測係数をできるだけ正確に1に近づける)ことで、コスト関数$ J(\θ)$を可能な限り最小限にすることです。
今私は、このすべてが機能するためには、コスト関数が凸でなければならないと言われました。凸性についての私の理解には、最大値が存在しないことが必要であり、したがって、最小値は1つしかありません。これは事実ですか?そうでない場合は、理由を説明してください。また、そうでない場合、コスト関数に複数の最小値がある可能性を意味し、より高い確率と高い確率をもたらす複数のパラメータセットを暗示します。これは可能ですか?または、返されたパラメータがグローバルな最小値、したがって最も高い確率/予測を参照していることを確認できますか?
(1)ロジスティック回帰問題はconvex(2)です。これは凸であるためlocal-minimum = global-minimumです3)Regulizationはこのタスクの中で非常に重要なアプローチです。例えば(4)L2ベースのレギュレーションは1つの解決策しか持たない(5)L1ベースのレギュレーションは、同じ目的の複数のソリューションを持つ可能性があります。 still convex(6)SGDベースのアプローチのような最適化への収束を保証しないアルゴリズムがあります。彼らはまだ大規模な選択肢で重要です – sascha