私はCaffeとNVIDIA DIGITSを使用しています。私はImageNetで事前に勉強したAlexNetを使い、私の医学的データに微調整したいと思っています。私は約1000の画像を持っており、訓練のために80%を使用して、私はデータ拡大(切り取りと回転を使用して)によって40,000画像を生成しました。しかし、私は深刻なオーバーフィットに直面しています。私は複数のドロップアウト層を追加することでこれを克服しようとしました。caffeまたはDIGITSでL2正規化を実装する方法は?
::と結果からの変更
が、私の精度は向上しません。
私のネットワーク仕様:
AlexNet pre-trained on ImageNet
base learning rate: 0.001
learning rate multiplier: 0.1 for convolution layers and 1 for fully connected layers and xavier weight initialisation.
dropout: 0.5
は、今私はL2正則を追加したいです。私はCaffeでそのようなレイヤーを見つけられなかったし、おそらく私はそれを自分で作るべきだ。
first question:
私の問題に対して、いかなる解決策もありますか? (私は、ステップサイズを変更10^(-5)
に1
から学習率を変更するような他の方法を試してみました、私は0.001
はあなたが見るように助けた様々なドロップアウト層()の追加、減衰の変化を比較検討、優れています)
second question:
あなたは私を助けてくださいすることができますがどのようにL2の正則化を実装することができますか?