2016-04-17 8 views
6

私は同様の細胞構造から撮影した画像を構成するそれぞれのクラスに、このような一連の画像を分類しようとしています:この画像は浅いNNクラシファイアでは複雑すぎますか?

enter image description here

私はこれを行うにはKerasでシンプルなネットワークを構築した、構造化されました:

1000 - 10 

不変のネットワークは、画像のこれらの種類にほとんどない高い5%MNIST分類に非常に高い(> 90%)の精度を達成していないが、。彼らはあまりにも複雑なのでこれですか?私の次のアプローチは、深いオートエンコーダーを積み重ねることです。

+0

異なるクラスの画像を提供できますか?それはすべてそれらの間の分離に依存します。 – rcpinto

+0

私は膜上の微妙な有機テクスチャを区別しようとしている同様の問題に取り組んでいます。私は重大な前処理と畳み込みレイヤーを持つ10-12レイヤーネットワークのアンサンブルの後で良い結果しか得られませんでした。 データセットのサイズとクラスの割合はどのくらいですか? – MaCaKi

+0

@ MaCaKi 1000画像、20クラスのそれぞれ約48画像 – erythraios

答えて

0

最初の質問は、トレーニングを長く実行すれば、より正確になりますか?あなたは十分に長い訓練を受けていないかもしれません。

また、トレーニングデータの精度とテストデータの精度はどのくらいですか?両方が高い場合は、より長く実行することも、より複雑なモデルを使用することもできます。トレーニングの精度がテストの精度よりも優れている場合は、基本的にデータの限界に達しています。 (すなわち、モデルサイズの無理やりのスケーリングは役に立たないが、賢明な改善、すなわち畳み込みネットを試みるかもしれない)

最後に、複雑で騒々しいデータでは、合理的な分類を行うために多くのデータが必要な場合があります。だから、たくさんのイメージが必要です。

ディープスタックされた自動エンコーダーは、私が分かっているように、それは分類に直接適していない監督されていない方法です。

+0

私は約1000の画像しか持っていないので、私はそれらのすべてを訓練しました。どちらの精度も高くありません。このページをチェックして、私がAEで分類しようとしていた方法を見てみよう:http://ufldl.stanford.edu/wiki/index.php/Stacked_Autoencoders#Training – erythraios

1

真剣に - このタイプのデータでは、非畳み込みモデルはうまく機能しません。データが十分に前処理されているのでMNISTため

  1. nonconvネットは、(それが中央にセンタリングし、特定のサイズにリサイズされて)うまく機能します。あなたのイメージはそうではありません。

  2. このモチーフは再現性があります(このような暗い点のように、位置やサイズが違う場合があります)。畳み込みモデルを使用しないと、効率的にキャプチャできません。ダークドットは全く別のオブジェクトとして少し動いていました)。

このため、私は畳み込みのMNISTモデルを古典的なものに変えてみるか、単にあなた自身のデザインを試みるべきだと思います。

関連する問題