backpropagation

    1

    1答えて

    バックプロパゲーションを実行する前にテンソルフロー内の異なるバッチの勾配を蓄積しようとしています。 10個のサンプルでそれぞれ10個のバッチがあり、それらをニューラルネットに入力してみましょう。バッチのそれぞれについて、グラデーションを取得してそれらを合計し、合計グラディエントでバックプロパゲーションを実行したいと考えています。 誰も簡単な方法を知っていますか?現在、私はグラデーションを得て外から

    3

    2答えて

    ニューラルネットワークが数字を認識するための基本的なフレームワークがありますが、トレーニングに問題があります。私のバックプロポーションは小さなデータセットでも機能しますが、データポイントが50を超えると、戻り値は0に収束し始めます。何千ものデータセットがある場合、NaNを取得して返します。 基本構成:3層:784:15:1 784は、データ・セット当たりの画素、私の隠れ層15個のニューロン、および

    2

    1答えて

    私は、22入力と1出力(1または0のいずれか)のフィードフォワード逆伝搬ANNを設計しています。 NNは3つの層を持ち、10個の隠れたニューロンを使用しています。 NNを実行すると、重みがわずかに変更され、出力の合計誤差は約40%になります。私はそれが過大であると思っていましたが、隠れたニューロンの数を変更しても何も変わりませんでした。 N Mが隠れニューロンの数(10)であり、入力数(22) あ

    0

    1答えて

    ネットワークの合計エラーは、100,000回を超える反復で変更されませんでした。 入力は22個の値で、出力は単一の値です。入力配列は[195] [22]、出力配列は[195] [1]です。 BasicNetwork network = new BasicNetwork(); network.addLayer(new BasicLayer(null,true,22)); netw

    0

    1答えて

    私は現在、ニューラルネットワークをプログラムしようとしています...学習のために、私はバックプロパゲーションアルゴリズムを使いたいです!私の問題は、どこに私のエラーがあるのか​​分かりません。 私はそれを論理的に鍛えようとします。 マイネットワークエラー最初のラウンドの後、次のとおりです。INPUT 1 28.68880035284087 | INPUT 1のための1 22.17048518538

    4

    1答えて

    疑問は、微分を計算するときに4の要素が1つしかないためです(たとえば、2x2プーリングカーネルを使用している場合など)フィードフォワードの結果に影響を与える。

    2

    1答えて

    トピックの理解を深めるために、MATLABでニューラルネットワークを実装しました。 GPUでコードを実行したかったので、すべてのマトリックスをgpuArray()で初期化しましたが、パフォーマンスは向上しませんでした。さらに、GPUがCPUより遅くなることがあります。私はすでにarrayfun、pagefunのような機能を使うことを学んだ。 バックプロンプトでは、すべてのレイヤーのデルタエラーを後

    0

    1答えて

    現在、TensorFlowのLSTMのBPTTを理解しようとしています。私は、パラメータ "num_steps"は、RNNが展開され、エラーがバックプロパゲーションされた範囲で使用されることがわかります。私はこれがどのように機能するかという一般的な質問を受けました。 参考として、式を繰り返します。 Formulas LSTM(https://arxiv.org/abs/1506.00019) 質問

    -1

    1答えて

    私は最近Courseraの教授Ng's Machine Learningコースを修了しましたが、私はバックプロパゲーションアルゴリズムを理解することに若干の問題があります。私はシグモイド関数を使ってバックプロパゲーションのビショップコードを読み込もうとします。バックプロパゲーションが何をするのかを説明しようとするきれいなコードを検索して見つけましたが、コードを理解する上で問題が残っています 本当に