私はKNNを使用して手書き数字を分類しています。私は今も次元を減らすためにPCAを実装しました。 256から私は200に行きました。しかし、私は、〜0.10%の情報の損失のように通知します。私は56ディメンションを削除しました。損失は大きくないはずですか?私が5つの次元に落ちたときに限り、私は〜20%の損失を得る。これは正常ですか?PCAとKNNアルゴリズム
13
A
答えて
6
あなたは56次元を削除した後、ほとんど情報が失われたと言っていますか?もちろん、それがPCAのポイントです! Principal Component Analysisは、名前の状態として、どの次元が情報を保持するかを判断するのに役立ちます。残りの部分は削除することができます
遺伝子分析では、PCAで次元を40,000から100に減らした論文を読んだ後、魔法のことをして、19次元の優れた分類子を持っています。これは暗黙のうちに、39'900次元を削除したときに情報がほとんど失われていないことを暗示しています。
+2
ありがとうございました。私は機械学習のためにちょっと新しい –
0
これは正常です(はい、あなたがしたことの点をFezvezが言ったように)。あなたのケースは、実際にはどのように可能かを見ることができる良い例です。
あなたのデータを見てください(機械学習では常に重要です)はあなたのデータを知っています)。白の黒い手書きの画像がある場合、いくつかのコーナーのピクセルはすべてのサンプルで白である可能性が高い(私は手書きの数字で機械を学習したときにそれを1つのコーナーに持っていた)。したがって、実際にはそのピクセルには何も情報がありません。それをKNNやANNなどの入力としてドロップすると、同じ結果になります。
関連する問題
- 1. J48とIBk(KNN)アルゴリズムによる分類
- 2. PCA pca = new PCA
- 3. R knn large datetet
- 4. オレンジPCAとscikit-learn PCAの結果が異なる
- 5. PCAプロジェクトとOpencvのバックプロジェクト
- 6. 確率的なkNNとナイーブベイズの違い
- 7. PCA FactoMineRプロットデータ
- 8. PCAスケーリングggbiplot
- 9. opencv 3.0でcv2のKNN train()
- 10. ggplotのKNNモデルの輪郭?
- 11. R PCA解析エラー
- 12. PCA認識OpenCV 2.3
- 13. OpenCV 2.2 PCA and EigenFaces
- 14. ScikitでのPCA射影と再構築
- 15. OpenCV 2.3(C++)のPCAプロジェクトとバックプロジェクト
- 16. Sklearn PCAはpca.components_ローディングですか?
- 17. 画像処理用PCA
- 18. PCA実行前後のデータサイズ
- 19. JavaでのPCAの実装
- 20. OpenCVのKNN不明の分類
- 21. MATLABのKNN分類 - 混同行列とROC?
- 22. RのKNN: '列車と階級の長さが違う'?ここ
- 23. PCA余談として新しいC++インタフェース
- 24. PCA(主成分分析)と機能選択の相違
- 25. スパース行列の次元削減(TSNE/PCA)
- 26. OpenCV PCA Pythonで計算する
- 27. PCAのマトリックスを白くする方法
- 28. Bayes分類の前にPCAを使用
- 29. PCAのセントロイドの計算方法は?
- 30. opencvでpcaオブジェクトを保存する
このようなことは、多くの種類のアプリケーションで共通しています。これは、リターンの減少のポイントと呼ばれています。 –