2016-11-24 11 views
0

私はオートエンコーダーと、デコーダを構築するときにエンコーダー部分を反映するすべての例を読んできました。オートエンコーダ - エンコーダとデコーダのネットワークサイズ

encoder = [128, 64, 32, 16, 3] 
decoder = [3, 16, 32, 64, 128] 

これは慣例によるものですか?

デコーダがエンコーダとは異なる隠れたレイヤー構造を持つべきではない特定の理由はありますか?たとえば...

encoder = [128, 64, 32, 16, 3] 
decoder = [3, 8, 96, 128] 

入力と出力が一致する限りです。

多分私は何かが分かりません。

答えて

0

それはちょうど条約の:

積層オートエンコーダのアーキテクチャは、中央隠れ層(符号化層)へに関して 典型的に対称です。 128、64、32、16、3、16:レイヤをコーディングあなたの場合Scikit-学び、TensorFlow

と (C)ハンズオン機械学習サイズ= 3を有する層であるので、積層オートエンコーダの形状を有しています、32,64,128.

関連する問題