2012-04-07 11 views
3

Adaboostの仕組みに関するいくつかのドキュメントを読みましたが、いくつか質問があります。Adaboostを使った特徴ベクトルのベストフィーチャの選択

私はまたに重み弱識別器から離れたデータからアダブーストもピック最高の機能ということで効率的な分類を実行するためにテスト段階でそれらを使用して読みました。

Adaboostはどのようにデータから最高の機能を選んでいますか?

ご理解いただける場合はアダボーストが間違っています!

+0

Adaboostは分類器に重みを割り当てます。したがって、最大の重みを持つ分類器が最もよく分類されます。しかし、これは原則として使用するべきではありません。なぜなら、すべてのクラシファイアはランダムな均一なクラシファイアよりも弱く、わずかに優れているはずですからです。 – Anton

答えて

5

場合によっては、Adaboostの弱い分類器が(ほぼ)機能と同等です。つまり、単一のフィーチャを使用して分類すると、ランダムなパフォーマンスよりもわずかに優れているため、弱分類器として使用できます。 Adaboostは、訓練データを与えられた最良の弱分類器のセットを見つけるので、弱分類器が機能と等しい場合、最も有用な機能が示されます。

フィーチャに類似する弱い分類器の例は、decision stumpsです。

+0

フィーチャとクラシファイアが同じ場合があります。あなたが特徴ベクトルを見るときそれらを特定する方法? – garak

+1

あなたは正確に何を達成しようとしていますか?最も有用な機能を探したいですか? – Sicco

+0

私はちょうどadaboostアルゴリズムを理解しようとしています。私は多くの研究論文を読みました。多くの著者は、「フィーチャ」および「クラシファイア」という用語を同じ意味で使用しています。私は、これが大部分のケースであるのか、それとも特別な少数であるのか疑問に思いました。私は著者がどのようにこのような結論に至ったのかを知りたい。 – garak

1

OK、adaboostは基本的な学習者ツリーに基づいて機能を選択します。単一のツリーの場合、単一のフィーチャがツリーに対してどの程度寄与しているかを推定する手段がいくつかあり、相対的な重要性と呼ばれています。 adaboostingのために、いくつかのそのようなツリーを含むensambleメソッドは、最終的なモデルに対する各特徴の相対的な重要性は、各特徴のそれぞれの木への有意性を測定し、次にそれを平均することによって計算することができる。

希望すると、これが役立ちます。

関連する問題