1

畳み込みニューラルネットワークは、フィードフォワードモデルまたはバックプロパゲーションモデルです。私はDR.YannのブログとWikipediaのCNNの定義を比較することで疑問を抱いています。私は深い学習の初心者です。CNNフィードフォワードまたはバックプロパゲーションモデル

+0

CNNはフィードフォワードです。 CNNによって、後方へのエラーの通過によって学習されています。 – viceriel

+0

フィードフォワードモデルも同時にバックプロパゲーションモデルにすることができます。これはほとんどの場合です。 –

答えて

4

畳み込みニューラルネットは、情報(通常は視覚)を処理するために最初のいくつかの層がまばらに接続されている構造化ニューラルネットです。フィードフォワードネットワークは、その中にサイクルが含まれていないものとして定義される。サイクルを有する場合、それはリカレントニューラルネットワークである。たとえば、レイヤー1が入力レイヤー、レイヤー3が出力レイヤーの3層ネットを想像してみてください。フィードフォワードネットワークは、入力を受け取り、それらをレイヤ2に供給し、レイヤ2のフィードをレイヤ3に送り、レイヤ3の出力を構成するレイヤ1によって構成される。リカレントニューラルネットはレイヤ1で入力を受け取り、レイヤ2に供給されるが、レイヤ2はレイヤ1とレイヤ3の両方に供給される。「下位」レイヤはその出力を「上位」レイヤに供給するので、ニューラルネットの内部。

しかし、バックプロパゲーションは、ニューラルネットを訓練する方法です。むしろ、ネットの構造とはあまり関係がありませんが、入力ウェイトがどのように更新されるかを意味します。

フィードフォワードネットをトレーニングすると、情報がネットに渡され、結果の分類が既知のトレーニングサンプルと比較されます。ネットの分類が正しくない場合、適切な分類を与える方向にネットを介して重みが後方に調整されます。これはトレーニングの後方伝搬部分です。

CNNはフィードフォワードネットワークですが、バックプロパゲーションによって訓練されています。

0

tsweiの回答に似ていますが、おそらくもっと簡潔です。

畳み込みニューラルネットワークは、個々のノードアクティベーションとは反対の距離 - ピクセル関係を分析するために、入力スペースを「スライド」または畳み込む複数セットの重み(フィルタ)を使用するフィードフォワードnnアーキテクチャです。

逆方向伝搬は、出力レイヤから入力レイヤ(隠れレイヤを含む)にエラーを「逆伝播」することによってニューラルネットワークを訓練する方法です。

関連する問題