2016-09-04 13 views
1

最近の論文Densely Connected Convolutional Networks https://arxiv.org/abs/1608.06993は、DenseNetのディープ・ラーニング・アーキテクチャが最先端のResNetアーキテクチャを上回っていることを示しています。同様のアーキテクチャに類似した論文/リポジトリがありますが、コンボリューションはありません(RNN /ちょうど密集しています)?畳み込みのないDenseNet?

答えて

0

簡単な答えはコンボリューション自体はほとんどの画像に真であるデータの局所性を利用して正則を可能にすることです。これは、より深い表現に不可欠な、より深いネットワークを実現するための鍵でもあります。

もう1つの重要な理由は、入力のサイズ(通常は224 * 224)のちょうど稠密なレイヤーがGPUのメモリの大半を占めてしまうため、今日このサイズの画像の密度の高いネットワークを実現する機会はほとんどありません。いくつかの層以上の深さ。たぶんGPU RAMが10倍の場合は、その1つを取り除こうとすることができます...コンボルーションは単純により経済的です。

関連する問題