scikit-learnでは、Cは正則化強度の逆数(link)です。 3つの異なるC(すなわち、0.1,1.0、および10.0)を使用していることを除いて、同じパラメータおよび条件で3回のトレーニングを手動で計算しました。私は、検証セットのFスコアを比較して、「最良の」Cを特定しました。しかし、誰かが、Cを最適化するために検証セットを使用するはずがないので、これが間違っていると私に言った。そして、私がscikit-learnからデフォルトのC(= 1.0)を選ぶ場合、私はどのような正当性を持っていますか?pythonのロジスティック回帰における正則化パラメータの発見方法scikit-learn?
0
A
答えて
1
正しいCを選択するにはどうすればよいですか?
トレーニング、検証、テストの3つのデータセットが用意されています。列車でトレーニングし、検証時にハイパーパラメータを設定し、最後にテストで評価します。特に、データが小さい場合は、k-fold CV方式でこれを行うことができます。ここでは、最初にCVを列車試験の分割に使用し、さらに別の列を実際の列車と検証に分割します。
scikit-learnからデフォルトのC(= 1.0)を選択するとどういう正当性がありますか?
任意の事前重み付けを行うこと以外に正当性はありません(したがって、他の値も同様に正当化されます)。
関連する問題
- 1. Pythonロジスティック回帰
- 2. ロジスティック回帰Python
- 3. Matlab正規化されたロジスティック回帰 - グラジエントの計算方法
- 4. Pythonのロジスティック回帰計算
- 5. 線形回帰分類器における収束と正則化
- 6. ロジスティック回帰における因子の名前の変更
- 7. Rのロジスティック回帰における機器変数(AERのivreg)
- 8. ロジスティック回帰における順序付け
- 9. MatlabのL2正規化によるロジスティック回帰の実装
- 10. 前処理データ:回帰におけるデータラベルの正規化?
- 11. scikit-learnのロジスティック回帰フィーチャ値の正規化
- 12. SPSSロジスティック回帰
- 13. Tensorflowロジスティック回帰
- 14. pythonロジスティック回帰 - patsyデザインマトリックスとカテゴリデータ
- 15. R gbmロジスティック回帰
- 16. ロジスティック回帰を適用する際に正規化する変数の選択
- 17. Apache Sparkのロジスティック回帰アルゴリズム
- 18. シキットが分類または回帰のロジスティック回帰を理解する方法
- 19. Scikit Pythonのロジスティック回帰のモデル精度を上げる方法は?
- 20. Pythonのsklearnロジスティック回帰K-ホールドクロスバリデーション:coef_ためdrameframeを作成する方法
- 21. スパークMLLibロジスティック回帰からの信頼スコアを得る方法
- 22. ロジスティック回帰とkmeans pmmlファイルをrにインポートする方法
- 23. ScikitのpythonとRでロジスティック回帰の結果が異なる?
- 24. Python sklearnにNon_Linearロジスティック回帰のモジュールがありますか?
- 25. scikit-learn KNN回帰におけるn_neighborsの変化
- 26. ロジスティック回帰を使用してパラメータ値を予測する
- 27. Rによるロジスティック回帰Shiny
- 28. 回帰におけるカスタムロール修正の効果
- 29. ロジスティック回帰におけるコスト関数の局所的および全体的な最小値
- 30. ロジスティック回帰モデルのロジスティック曲線を作成する
Cがテストセットのパフォーマンスに基づいて選択される状況では、これは過適合の例ですか?私はなぜそれが悪い考えであるか理解しようとしています。 – KubiK888
これは** overfittingの** example **ではなく、** invalid estimator **の例です。このような方法で選択されたモデルを信頼することはできません。この意味での過大評価と関連していますが、その問題はより深刻です。単純にデータを使用して**モデルに関する**決定を下すだけでなく、その評価も - 評価は**です偏ってしまい、結果的に役に立たない。 – lejlot