2016-11-29 3 views

答えて

0

例がありますか?通常、ReLuまたはTanHはレイヤー間で使用されます。

パラメータを持つ '実際の'ニューラルネットワーク層ではないため、テーブル操作関数などの間では使用しません。

関連する問題