backpropagation

    5

    1答えて

    私はニューラルネットワークで遊んでいます。私は自分自身を実装しました。学習アルゴリズムとしてRPROPを基本的なデザインと比較して唯一の「プラス」として使用するのは些細なフォワードネットワークです。 MNISTや画像圧縮を試したときにネットワークの評価がうまくいくのですが、XOR関数と同じように単純なモデルを作成しようとすると、学習中にローカルミニマムにトラップされ、真理値表以下: 0 XOR 0

    3

    3答えて

    MNISTの単純な3層ニューラルネットワークでbackpropagationを理解しようとしています。 weightsとbiasという入力層があります。ラベルはMNISTなので10クラスベクトルです。 第2層はlinear tranformです。第3層は、出力を確率として得るためにsoftmax activationです。 Backpropagationは、各ステップで微分を計算し、これを勾配と呼

    0

    1答えて

    私は、シンボル認識のための簡単なフィードフォワード人工ニューラルネットワークを作成しました。 5x5ピクセルのグリッドに6つのシンボルのセットがあります。 これらは例えば Xについて {X, +, -, \, /, |} は次のようになります マイANN 25個の入力ニューロンから成り0と1の間のグレーノイズの多いエリアの X = [1,0,0,0,1, 0,1,0,1,0,

    0

    1答えて

    私は多層ニューラルネットワークを構築しています。私は訓練プロセスに関する質問を持っている、私は希望の出力とトレーニングデータのセットを持っています。私は接続重みを更新するためにBackpropagationアルゴリズムを使用しています。 ネットワークトレイントレーニングデータは別途必要ですか? :ネットワークは、実際の出力が所望の出力に等しくなる適切な接続重みを見つけるたびに、1入力をとる。ネット

    2

    1答えて

    私はLSTM細胞がどのように働くかを私自身の理解から、最初からLSTMネットワークを構築しています。 レイヤーがないので、私はチュートリアルの方程式のベクトル化されていない形式を実装しようとしています。私はまた、細胞の状態から覗き穴を使用しています。 これまでのところ、私はそれがこのようになっていることを理解して:私は往路用ゲートの各々のためにこれらの式を作ったことでLSTM network :そ

    0

    1答えて

    私はちょうどBishopの本のパターン認識と機械学習を読みました。私はバックプロパゲーションについて5.3章を読んでいます。彼の本では、一般的なフィードフォワードネットワークでは、各ユニットは入力の加重和を計算します。$$\a_j=\sum\limits_{i}w_{ji}[email protected] 次に、非線形活性化関数$h(.)$によって変換された上の式の和が、単位の$z_j$の形を$

    1

    1答えて

    ロングストーリーショート。方法はあり x = tf.Variable(5.0) x_ = x.assign(tf.constant(5.0)) opt = tf.train.MomentumOptimizer(learning_rate=0.0001, momentum=0.9) train_op = opt.minimize(x_) with tf.S

    1

    1答えて

    バックプロパゲーションを使用して人工ニューラルネットを組み立てる場合、アルゴリズムは複雑であり、テストのための安定した参照点はありません。 実装されたアルゴリズムの正確性をデバッグする最適な方法は何ですか? 私は列車/検証/テストフェーズについては言及していませんが、私はある種のゲージを望んでいますか、またはステップバイステップのトレーニング結果/重量値をネットワークの内部動作与えられた構成とトレ

    3

    2答えて

    Iは、(各時間ステップが個々に処理された)N個の部分に分割され、長さNのシーケンスを処理するためKerasでステートフルRNNを使用する場合、 の方法バックプロパゲーションを扱いますか?最後のタイムステップにのみ影響を及ぼしますか、それともシーケンス全体にバックプロジェクトしますか? シーケンス全体に伝播しない場合は、これを行う方法はありますか?

    2

    1答えて

    私は機械学習とニューラルネットワークの研究に着手したばかりなので、バックプロパゲーションの仕組みを理解するためにはまだ苦労しています。 私は単純な行列ベースのアプローチを使って、Javaで単純なNNを開発しようとしました。トレーニングの例を1つだけ入れるとネットワークは完璧に機能しますが、それ以上使用しようとすると、出力は常にトレーニングの望ましい出力の平均になります。 http://neural