0
は、私は確信がもてないの両方(ロジスティック回帰は、常にグローバルな最適解を見つけるん) 一般的にロジスティック回帰は、最適化が収束したと仮定して常にグローバル最適を見つけるか?このような場合には
と 特に(最適化が収束するとき、ロジスティック回帰は、常にグローバルな最適解を見つけるん)
ありがとう
は、私は確信がもてないの両方(ロジスティック回帰は、常にグローバルな最適解を見つけるん) 一般的にロジスティック回帰は、最適化が収束したと仮定して常にグローバル最適を見つけるか?このような場合には
と 特に(最適化が収束するとき、ロジスティック回帰は、常にグローバルな最適解を見つけるん)
ありがとう
データが分離可能な場合、最適値は無限大であるため、決して到達できません。しかし、通常は、使用している最適化アルゴリズムは、それ以上の反復処理によって目立った改善が得られないポイントに達します。
損失関数がconvexであるため、適切に調整されたアルゴリズムでは、これが当てはまらない場合に最終的に大域最適値を見つけることになります。
ありがとう、あなたは損失関数が凸であるために、なぜグローバル最適を見つけるのかを明確にすることができますか? – Fredrik
凸(凹)関数は最小値(最大値)を1つしか持たない。ロジスティック回帰によく用いられる勾配降下法やニュートン法などの反復最適化アルゴリズムは、目的関数が減少(増加)する空間における方向を探索する。したがって、最終的に最適化に遭遇し、更新ステップが十分に小さい場合に限る。私はリンクを追加しました。 – broncoAbierto