私は現在、Lasagne/Theanoを使用してリカレントニューラルネットに取り組んでいます。Lasagne/Theano勾配値
トレーニング中、更新はTheanoの記号勾配を使用して計算されます。
grads = theano.grad(loss_or_grads, params)
勾配表現は、一般的には完全に罰金ですが、私はまた、トレーニングを監視するために勾配値に興味があります。
私の質問は、これまで見つからなかったグラデーション値を取得するための組み込みメソッドがある場合、または自分で行う必要がある場合です。
おかげで、事前