2017-05-18 14 views
0

、著者は彼が平均二乗誤差と同義であると言い次コスト関数を最小限に抑えるという点で、ニューラルネットの基本を示しています。私は彼の機能について2つのことを混乱させましたが(以下の擬似コード)。トレーニングニューラルネットワークのためのMSEコスト関数に

MSE≡(1/2N)*Σ‖y_true-y_pred‖^ 2

  1. 代わりのトレーニング例の数で二乗誤差の和を除算N理由ではなくによって分割され2n?これは何の意味ですか?
  2. なぜかっこの代わりにダブルバー表記が使用されていますか?これは、L2ノルムのように、明示的に示されていない他の計算が行われていると思っていました。私はこれが当てはまらないと考えています。その言葉は平方の古い二乗誤差の和を表すことを意図しています。スーパー混乱。

あなたが提供できる洞察は大変ありがとうございます!

答えて

0

表記∥v∥は、ベクトルvの通常の長さ関数を表しています。online textbookから参照してください。

詳細については、hereを参照してください。しかし、私が理解しているところから、あなたは基本的にそれを絶対的な用語として見ることができます。

それは2N言う私はなぜわからないんだけど、それは常に2Nではありません。たとえば、次のようWikipedia機能を書き込みます

enter image description here

Mean Squared Errorをグーグルでも、代わりにオンライン教科書からテオ数NE、ウィキペディアのいずれかを使用してソースをたくさん持っています。

1

コスト関数を乗算する0.5因子は重要ではありません。実際には、あなたが望むいかなる実定数でもそれを掛けることができ、学習は同じになります。これは、出力に関するコスト関数の導関数が単に$$ y - y_ {t} $$になるように使用されます。バックプロパゲーションのようないくつかのアプリケーションでは便利です。

関連する問題