2017-01-13 4 views
0

次元数が異なるデータで分類器を訓練する必要があります。例(これは、説明のために作られた、最新である)の場合:次元数の異なるデータの分類器

class-1,0,1,2,3 
class-2,0,3,2,4,5,7 
class-3,1,8,8,8,2,8,0,0,0 
: 
: 
and so on... 

私が固定されるように次元を必要とするscikit-learnを使用して線形SVMを訓練しようとしています。最大のディンプルと一致するように小さなディムの単純なゼロパディングは、私には残念な結果を与えています。

このようなデータに別の分類子を使用する必要がありますか?私はこれにどのようにアプローチすべきですか?

+0

あなたのデータと何があれば、前処理段階となっているの性質(起源、本当の意味)とは何ですか? – shirowww

+0

これらは、表面の異なる点での強度測定であり、画像がレンダリングされます。したがって、表面の種類や条件によっては、1.nの測定値を得ることができます(n <1024)。ありがとう – Santino

+0

私はPCAに基づいて次元削減を試みましたが、ここではそれが適切かどうかはわかりません。 – Santino

答えて

1

フィーチャーハッシュは、可変長入力を固定長入力に変換するために必要なアルゴリズムです。次に、適切な学習アルゴリズムであなたの変換されたベクトルを使用することができます。

Wikipedia: Feature Hashing

1

フィーチャ平均/中央値で埋め尽くしてください。これは、欠落しているデータを処理する別の方法です。 これらの測定は同じポイント/フィーチャで行われていますか?

関連する問題