私は何千もの動画を持っており、それぞれに35という一定のフレーム数が含まれています。LSTMモデルをトレーニングして動画を分類しようとしています。しかし、私は人々がビデオの連続的な構造を維持し、LSTMモデルを鍛える方法を正確には知らない。動画を使ったLSTMモデルのトレーニングの構造
したがって、私がしたいのは、 CNNを経由して各フレームの
- データセット
- からビデオを読んで、ビデオや抽出機能の35個のフレームを取得
- LSTM層にそれらの35のフレームの機能をフィード - どのように私は35のフレーム(各ビデオを養うことができ)を一括してLSTMバッチに変換する?
Kerasの機能が使用されます。しかし、私はフィット関数のメモリにすべてのデータを読み込んでいる間、私はどのようにビデオのシーケンシャルな構造を保つことができるのか分かりません。
rm.model.fit(X,y,batch_size=batch_size, validation_data=(X_test, y_test),verbose=1, epochs=100)
誰かが、私ははっきりと自分自身を説明することを願って、人々がビデオ(フレームのN数)でLSTMモデルを訓練する方法
を私に説明してくださいでした。
Keras形状で(None, TimeSteps, DataDimension)
、None
は、使用している例の数は次のとおりです。documentationから事前