pythonで実装されたadaboostアルゴリズムはどのように機能の割り当てを各機能に割り当てるのですか?私は機能の選択にそれを使用しており、私のモデルはfeature_importance_の値に基づいて機能の選択を適用する方が優れています。scikit adaboost feature_importance_
1
A
答えて
1
feature_importances_
は、ベース分類器が決定木である場合にsklearnのアドバウトアルゴリズムに使用できる属性です。どのようにfeature_importances_
がadaboostアルゴリズムで計算されるのかを理解するには、まず、それが決定木分類子の計算方法を理解する必要があります。
ディシジョン・ツリーの分類子:
feature_importances_
は、あなたが選択した基準を分離するものによって異なります。分割基準が「エントロピー」に設定されている場合: feature_importances_
は、各フィーチャの情報ゲインに相当します。 Here is a tutorial各フィーチャの情報ゲインの計算方法(特にスライド7)。分割基準を変更すると、feature_importances_
は情報利得と同等ではなくなりますが、計算に使用する手順はスライド7での手順と似ています(エントロピーの代わりに新しい分割基準を使用)。
アンサンブル分類器:
は、今度はそれがアダブーストアルゴリズムで決定される方法のあなたの元の質問に戻りましょう。 According to the docs:
の機能の重要性を平均化することにより、決定木のアンサンブルに拡張することができます重要性のこの概念は、単に各ツリー
関連する問題
- 1. Adaboostで使用される決定関数の定義(式)はscikit-learn
- 2. Adaboostアルゴリズムの基本的な理解
- 3. Viola Jones/AdaBoostの学習段階
- 4. がscikit-学ぶ
- 5. Scikit-learn confusion matrix
- 6. Python Scikitランダムフォレストリグレッサーエラー
- 7. scikit-learn SVMのデータのスケーリング
- 8. scikit-logisticRegression.predict_probaの返り値
- 9. Scikitパイプラインでpartial_fitを使用
- 10. Scikit-Logistic回帰回帰メモリエラー
- 11. ランダムフォレストのハイパーパラメータチューニングScikit-Learn Using GridSearchCV
- 12. 非整数クラスラベルScikit-Learn
- 13. SciKitのマルチクラスロジスティック回帰Learn
- 14. scikit-learn DBSCANメモリの使用
- 15. Matlab WekaインターフェイスAdaBoostの問題:範囲外例外
- 16. Adaboostを使った特徴ベクトルのベストフィーチャの選択
- 17. Javaで複数次元のAdaboostを実装する
- 18. Adaboostの最も強力な代替手段は何ですか?
- 19. ピップ:私は数週間前のGitHubから<a href="https://github.com/scikit-learn/scikit-learn" rel="noreferrer">scikit-learn</a>をインストールしたリモートgitリポジトリ
- 20. scikit-learnでのランダムフォレストの解釈
- 21. リンクエラー私のRHEL7でscikit-学ぶ
- 22. scikitでバッチ勾配降下learn(sklearn)
- 23. メソッド "train_test_split"からパラメータ "stratify"(scikit Learn)
- 24. RFECVでのScikit LDAの使用
- 25. scikit-learnの進捗バーですか?
- 26. ScikitでのPCA射影と再構築
- 27. 類似度測定scikit-learnドキュメント分類
- 28. scikit-learn:サポートベクターマシン。精度や精度は?
- 29. エクスポートpython scikitモデルをpmmlに学習
- 30. Scikit-learnでBaseEstimatorを使用したGradientBoostingClassifier?