私は「エキスパートMINST」TFチュートリアル(https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros/index.html)を通じてつもりだと私はこの部分にこだわっている:今、その画像サイズTensorFlow畳み込みNueralネットワークチュートリアル
密集接続されたレイヤ
が7×7に縮小された場合、画像全体に の処理を可能にするために、 完全接続レイヤーを1024個のニューロンで追加します。テンソルをプール層からベクトルの バッチに再構成し、重み行列を掛けてバイアスを加え、 ReLUを適用します。
なぜ1024ですか?それはどこから来ましたか?
完全接続レイヤーについて私が理解していることは、どういうわけか元の画像サイズに戻らなければならないということです(そして、私たちはソフトマックスの式にプラグインを開始します)。この場合、元の画像サイズは高さx幅xチャンネル= 28 * 28 * 1 = 784 ... not 1024です。
私はここで何が欠けていますか?