0

私は「エキスパートMINST」TFチュートリアル(https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros/index.html)を通じてつもりだと私はこの部分にこだわっている:今、その画像サイズTensorFlow畳み込みNueralネットワークチュートリアル

密集接続されたレイヤ

が7×7に縮小された場合、画像全体に の処理を可能にするために、 完全接続レイヤーを1024個のニューロンで追加します。テンソルをプール層からベクトルの バッチに再構成し、重み行列を掛けてバイアスを加え、 ReLUを適用します。

なぜ1024ですか?それはどこから来ましたか?

完全接続レイヤーについて私が理解していることは、どういうわけか元の画像サイズに戻らなければならないということです(そして、私たちはソフトマックスの式にプラグインを開始します)。この場合、元の画像サイズは高さx幅xチャンネル= 28 * 28 * 1 = 784 ... not 1024です。

私はここで何が欠けていますか?

答えて

3

1024は、隠しユニットの任意の数に過ぎません。この時点で、ネットワークへの入力は、サイズが7×7ピクセルの64プレーンに縮小されます。彼らは、元の画像サイズに戻ろうとはしません。それらは、グローバル機能を抽出できるレイヤーを必要としていると単純に主張します。したがって、最後のプールレイヤーからのすべての単一ニューロンに密接に接続しますあなたの入力スペースを表します)、以前の操作(畳み込みとプール)はローカル機能でした。

したがって、これをMLP方式で処理するには、7 * 7 * 64 = 3136ニューロンが必要です。彼らは単に経験的にそれが動作することをテストしていますが、使用することができ、あなたのネットワークを描くのであれば、それは数はこのように非常にarbitaryある

INPUT - CONV - POOL - .... - CONV - POOL - HIDDEN - OUTPUT 

28 x 28-    ....   7*7*64 1024  10 
            =3136 

のラインの中でものになるだろう、上に1024の別の層を追加します任意の数のユニット、または任意の数の層を含むことができる。

関連する問題