3

私は自分のデータにFCN32セマンティックセグメンテーションを行っています。アルゴリズムを実行して、80,000回の繰り返しまで自分のデータ(1つのチャンネルだけのグレースケール画像)を微調整しました。しかし、損失と精度が変動し、出力画像が完全に黒くなります。さらに、80,000回反復した後の損失は非常に高いです。私は分類器が私のデータでうまくトレーニングできないと思った。だから、私は最初から訓練するつもりです。 一方、私のデータは、クラスメンバーの不均衡を招いています。背景ピクセルは他の4つのクラスよりも多い。一部の研究者は、重み付けされた損失を使用することを提案している。誰にも分かりますか?私は正しい方法でやっていますか?この加重損失をtrain_val.prototxtに追加するにはどうすればよいですか?ピクセル単位のセグメンテーション/分類タスクに重み付き損失を使用する例はありますか?

重み付けされた喪失のトレーニングに関するリソースや例が分かっていれば、感謝します。私とここで共有してください。

おかげで再び

答えて

3

あなたは"InfogainLoss"を使用して、クラスの不均衡に取り組むことができます。この損失は、"SoftmaxWithLoss"の拡張とみなされ、ラベルごとに異なる損失額を「支払う」ことができます。
ピクセル単位の予測に"InfogainLoss"を使用する場合は、BVLC/caffe PR#3855を使用する必要があります。

関連する問題