2

トレーニングインスタンスのためのニューラルネットワークとバックプロパゲーションについては、ただ1つの簡単な質問といくつかの明確化が必要です。ニューラルネットワーク - バックプロパゲーション

誰かがこれに似たようなものをベースにしていれば、わかりやすい例が不足しているのですばらしいでしょう。

訓練に必要な3色が赤、青、緑であるとしましょう。ここでは正規化を使用して以下のように赤を表します。

red = 0.4 
blue = 0.7 
green = 1.0 

3つの入力レイヤーがあり、2つの非表示レイヤーと1つの出力レイヤーがあります。

-1と1の間のランダムウェイトが提供され、各入力レイヤーノードにレイヤーを介して乗算され、インスタンスの横に格納されるネットワーク出力値0.562を与えると仮定します。この出力値は3つのインスタンスのすべてと一緒に保存されますか?エラーが計算されて戻ってくるように、トレーニングはどのように行われますか?これは私を本当に混乱させるものです。

私はこのアルゴリズムをコーディングする必要があるので、最初に理解を深めることは素晴らしいことです。

+1

あなたの質問をリファクタリングしてください。私は "3つのすべてのインスタンス"が何を意味するのか分かりません0.562とは何ですか?また、私は最後の質問を理解していません。 –

+0

あなたの質問を明確にしてください。 「3色の訓練が必要です」と言えば、RGB値をとり、それが3色のどれであるかを決定するニューラルネットワークを訓練したいと思っていますか?赤が最小の値であるときに、あなたの例がどのように赤を表しているか分かりません。 – Andrew

答えて

9

私はあなたの例を正確に理解していませんが、逆伝播の問題はかなり一般的です。厳密に階層化されたフィードフォワードと1つの出力ノードを持つ最も単純な場合:

まず、情報を前方に伝播する必要があります。ただし、これは既にあるかもしれませんが、各ノードの値がsquashing関数の後にあった値を追跡し、このノードを呼び出すことができ、ノードごとに値を保持できるようにしてください。

フォワード伝播が完了したら、バックプロパゲーションのためにエラーを計算する必要があります。これは、予想されたものと与えられたものとの間の違いです。さらに、後で更新の指示を与えるために、これを微分で乗算する(微分の導出は複雑であるが、使用は非常に簡単である)。

Error[output] = (Expected - Actual) * o(1 - o)

、ネットワークを介して後方に各ノードでエラーが伝播します。これは、エラーのための各ノードの「責任」に関する見積もりを与える。したがって、各ノードの誤差は、各リンクの重みによって重み付けされた次の層のすべてのノードにおける誤差である。ここでもまた、我々は導関数を乗ずるので方向性を持つ。

Error[hidden] = Sum (Error[output]*weight[hiddenToOutput]) * o(1 - o)

必要に応じて(出力に隠さ隠さに隠された隠しへの入力、)リンクのすべての層を繰り返し、これを。

最後に、訓練はリンク上の重みを更新することによって行われます。このために、最終更新を得るために必要なすべての情報を組み合わせます。入力(つまり、前の層から、「O」であり、エラーが次の層からなる)リンクに入った値であり、そしてlearningRateは、いくつかの小さな数である

Weight[hiddenToOutput] = weight[hiddenToOutput] + learningRate * error[output] * input

(例えば0.01 )私たちの更新のサイズを制限する。ウェイト[inputToHidden]などのレイヤーについても同様の計算が行われます。

((NB:これは)機能を退治シグモイドを想定)、このことができます

希望。追加情報は多くの場所にあります。私はTom M. MitchellのMachine Learningから学びました。それは良い擬似コードセクションを持っています。

+0

いい説明! 1+隠れた層や1+の出力に対してこれを一般化できますか?ありがとう! – Fernando

+0

ええ、任意の数の隠れ層と任意の層の任意の数のノードで動作します。あなたのネットワークの形によって品質は変わるかもしれません。 – Andrew

+1

この問題には1つの問題があります。 出力エラーの計算には、ニューロンのためのスカッシュ関数が仮定されています。それはあなたが使用する必要がある活性化関数の派生物です。出力が線形出力(f(x)= x)の場合、微係数は1なので、その誤差は単純に予想されます。実際の – Michael

関連する問題