Adaboostの仕組みに関するいくつかのドキュメントを読みましたが、いくつか質問があります。Adaboostを使った特徴ベクトルのベストフィーチャの選択
私はまたに重み弱識別器から離れたデータからアダブーストもピック最高の機能ということで効率的な分類を実行するためにテスト段階でそれらを使用して読みました。
Adaboostはどのようにデータから最高の機能を選んでいますか?
ご理解いただける場合はアダボーストが間違っています!
Adaboostの仕組みに関するいくつかのドキュメントを読みましたが、いくつか質問があります。Adaboostを使った特徴ベクトルのベストフィーチャの選択
私はまたに重み弱識別器から離れたデータからアダブーストもピック最高の機能ということで効率的な分類を実行するためにテスト段階でそれらを使用して読みました。
Adaboostはどのようにデータから最高の機能を選んでいますか?
ご理解いただける場合はアダボーストが間違っています!
場合によっては、Adaboostの弱い分類器が(ほぼ)機能と同等です。つまり、単一のフィーチャを使用して分類すると、ランダムなパフォーマンスよりもわずかに優れているため、弱分類器として使用できます。 Adaboostは、訓練データを与えられた最良の弱分類器のセットを見つけるので、弱分類器が機能と等しい場合、最も有用な機能が示されます。
フィーチャに類似する弱い分類器の例は、decision stumpsです。
OK、adaboostは基本的な学習者ツリーに基づいて機能を選択します。単一のツリーの場合、単一のフィーチャがツリーに対してどの程度寄与しているかを推定する手段がいくつかあり、相対的な重要性と呼ばれています。 adaboostingのために、いくつかのそのようなツリーを含むensambleメソッドは、最終的なモデルに対する各特徴の相対的な重要性は、各特徴のそれぞれの木への有意性を測定し、次にそれを平均することによって計算することができる。
希望すると、これが役立ちます。
Adaboostは分類器に重みを割り当てます。したがって、最大の重みを持つ分類器が最もよく分類されます。しかし、これは原則として使用するべきではありません。なぜなら、すべてのクラシファイアはランダムな均一なクラシファイアよりも弱く、わずかに優れているはずですからです。 – Anton