最近の論文Densely Connected Convolutional Networks https://arxiv.org/abs/1608.06993は、DenseNetのディープ・ラーニング・アーキテクチャが最先端のResNetアーキテクチャを上回っていることを示しています。同様のアーキテクチャに類似した論文/リポジトリがありますが、コンボリューションはありません(RNN /ちょうど密集しています)?畳み込みのないDenseNet?
1
A
答えて
0
号
簡単な答えはコンボリューション自体はほとんどの画像に真であるデータの局所性を利用して正則を可能にすることです。これは、より深い表現に不可欠な、より深いネットワークを実現するための鍵でもあります。
もう1つの重要な理由は、入力のサイズ(通常は224 * 224)のちょうど稠密なレイヤーがGPUのメモリの大半を占めてしまうため、今日このサイズの画像の密度の高いネットワークを実現する機会はほとんどありません。いくつかの層以上の深さ。たぶんGPU RAMが10倍の場合は、その1つを取り除こうとすることができます...コンボルーションは単純により経済的です。
関連する問題
- 1. Tensorflow畳み込みとnumpy畳み込みの違い
- 2. 畳み込みニューラルネットワークモデルアーキテクチャ
- 3. ゴーランの畳み込み
- 4. 畳み込みネットのケラスパラメータ
- 5. アンパッドカーネルの畳み込み
- 6. データキューブのガウス畳み込み
- 7. 畳み込み層のテンソルフローサイズ
- 8. Caffeの完全な畳み込みネット
- 9. TensorFlow畳み込みNueralネットワークチュートリアル
- 10. 空間畳み込み対周波数畳み込み画像の逆フィルタ
- 11. 畳み込みネットワークの重み?
- 12. 畳み込みニューラルネットワーク - 可視化重み
- 13. OpenCVのDFTベースの畳み込みは
- 14. Kerasの畳み込みレイヤーのウェイト
- 15. 畳み込みニューラルネットワークのレイヤーを特定
- 16. 畳み込みニューラルネットワークのコスト関数
- 17. 実装畳み込みニューラルネットワークのケラス
- 18. 畳み込みエンコーダのゼロパディング(テールビット)。 VHDL
- 19. 畳み込みレイヤのサイズ縮小
- 20. 畳み込みニューラルネットワークの検証精度
- 21. 畳み込みニューラルネットワークの不均衡クラス
- 22. 畳み込みニューラルネットワークの層数
- 23. 畳み込みニューラルネットワークの認識タイプ
- 24. 2Dの畳み込み定理
- 25. 2D配列のTensorFlow畳み込み
- 26. 畳み込みニューラルネットワークの次元
- 27. 畳み込みニューラルネットワークの入力データ
- 28. 畳み込みニューラルネットワーク - 複数のチャネル
- 29. 畳み込み、画像上の画像
- 30. 畳み込みレイヤの出力サイズ