2017-05-26 6 views
1

私はスパースモデルをトレーニングしようとしています。つまり、モデルパラメータの一部が最適化中にゼロのままでなければなりません。Kerasを使用したトレーニングスパースモデル

Kerasでは、オプティマイザがマスクされたマスクを更新しないように、パラメータのマスクを定義することは可能ですか?

残念ながら、パラメータをより細かくマスクする必要があるため、1つのレイヤをフリーズすることはできません。

答えて

0

tf.whereを使用して、パラメータとtf.stop_gradient(parameters)の間で要素を選択することができます。

関連する問題