1
私はスパースモデルをトレーニングしようとしています。つまり、モデルパラメータの一部が最適化中にゼロのままでなければなりません。Kerasを使用したトレーニングスパースモデル
Kerasでは、オプティマイザがマスクされたマスクを更新しないように、パラメータのマスクを定義することは可能ですか?
残念ながら、パラメータをより細かくマスクする必要があるため、1つのレイヤをフリーズすることはできません。
私はスパースモデルをトレーニングしようとしています。つまり、モデルパラメータの一部が最適化中にゼロのままでなければなりません。Kerasを使用したトレーニングスパースモデル
Kerasでは、オプティマイザがマスクされたマスクを更新しないように、パラメータのマスクを定義することは可能ですか?
残念ながら、パラメータをより細かくマスクする必要があるため、1つのレイヤをフリーズすることはできません。
tf.where
を使用して、パラメータとtf.stop_gradient(parameters)
の間で要素を選択することができます。