NNをトレーニングするためにKeras w/Tensorflowバックエンドを使用しています。Kerasのデータのバッチで、一度に損失とモデルの両方の出力を得るには?
トレーニングにはtrain_on_batch
を使用していますが、これは特定のバッチの損失を返します。そのバッチで出力分類を取得するにはどうすればよいですか?
これを行うには、現在、predict
という別の呼び出しを行ってモデルの出力を取得しますが、train_on_batchはすでに入力バッチを「前方」に渡しているため、冗長です。
Caffeでは、画像をフィードフォワードすると、中間層の出力はnet.blobsに保存されますが、Keras/Tensorflowでは中間出力を取得するにはそれぞれの計算グラフを再実行する必要がありますhereのように、CPUにアクセスしたい中間出力。多くの/すべての中間層の出力にアクセスする方法はありますか?それぞれのグラフを再実行する必要はありませんか?
テンソルフロー固有の回避策はありません。
これは中間出力を返しますが、損失は戻さず、重みを更新しません。 – MohamedEzz