最近の論文Densely Connected Convolutional Networks https://arxiv.org/abs/1608.06993は、DenseNetのディープ・ラーニング・アーキテクチャが最先端のResNetアーキテクチャを上回っていることを示しています。同様のアーキテクチャに類似した論文/リポジトリがありますが、コンボリューションはありません(RNN /ちょうど密集しています)?畳み込みのないDenseNet?
1
A
答えて
0
号
簡単な答えはコンボリューション自体はほとんどの画像に真であるデータの局所性を利用して正則を可能にすることです。これは、より深い表現に不可欠な、より深いネットワークを実現するための鍵でもあります。
もう1つの重要な理由は、入力のサイズ(通常は224 * 224)のちょうど稠密なレイヤーがGPUのメモリの大半を占めてしまうため、今日このサイズの画像の密度の高いネットワークを実現する機会はほとんどありません。いくつかの層以上の深さ。たぶんGPU RAMが10倍の場合は、その1つを取り除こうとすることができます...コンボルーションは単純により経済的です。
関連する問題
- 1. Tensorflow畳み込みとnumpy畳み込みの違い
- 2. アンパッドカーネルの畳み込み
- 3. ゴーランの畳み込み
- 4. Caffeの完全な畳み込みネット
- 5. TensorFlow畳み込みNueralネットワークチュートリアル
- 6. 空間畳み込み対周波数畳み込み画像の逆フィルタ
- 7. 畳み込みネットワークの重み?
- 8. 畳み込みニューラルネットワーク - 可視化重み
- 9. 畳み込みニューラルネットワークの層数
- 10. 畳み込みニューラルネットワークの入力データ
- 11. 確率関数の畳み込みPython
- 12. 畳み込みニューラルネットワークのコスト関数
- 13. 2Dの畳み込み定理
- 14. 畳み込みニューラルネットワーク - 複数のチャネル
- 15. theano/lasagneとの畳み込みニューラルネットワーク
- 16. OpenCV畳み込みカーネルのサイズ
- 17. 畳み込みニューラルネットワークの認識タイプ
- 18. 畳み込みフィルタ - Float Precision C Vs Java
- 19. 畳み込みニューラルネットワークと3D画像
- 20. 空間分離畳み込み
- 21. 完全畳み込みネットワークトレーニング画像サイズ
- 22. ガウス畳み込みグラフをプロットする
- 23. ケラスネットワークを畳み込みにする
- 24. Udacityディープラーニング畳み込みニューラルネットワーク - TensorFlow
- 25. Caffe完全畳み込みCNN
- 26. FFTによる畳み込みの短所は、実空間畳み込みと比べて何ですか?
- 27. mxnetの畳み込みニューラルネットワークを用いた時系列解析
- 28. keras:畳み込み層の重みをブロックする方法は
- 29. OpenCV GPU畳み込み関数と罫線なし
- 30. scipy.signalのconvolveが畳み込まれていない