backpropagation

    0

    1答えて

    私は、畳み込みニューラルネットワークを自分でプログラマブルにしようとすることで、ニューラルネットワークをよりよく理解しようとしています。 これまでは、max-poolingを使用せず、単純なReLuの有効化を使用することで、かなり簡単にするつもりです。私はこの設定の欠点を認識していますが、その点が世界で最高の画像検出器を作っているわけではありません。 ここで、エラー計算の詳細を理解し、それを戻し、

    1

    1答えて

    私は鋸を持って、https://www.quora.com/If-one-initializes-a-set-of-weights-in-a-Neural-Network-to-zero-is-it-true-that-in-future-iterations-they-will-not-be-updated-by-gradient-descent-and-backpropagation と言って

    0

    1答えて

    Python OpenCVモジュールでANN(64単位の1つの隠れ層、学習率= 0.001、ε= 0.001、iters = 500)を実装しました。トレインエラー〜3%、テストエラー〜12% 私のNNの達成度/一般化を改善するために、モデル選択(#隠し単位と学習率)を実施して、より多くのデータが必要かどうかを判断するための学習曲線をプロットする(現在は2.5k)。 NNのトレーニングとモデル選択

    1

    1答えて

    私は理解の初期段階にあります。backpropagationと私はそれを自分で実装しようとしました。 私が扱おうとしたデータセットは、サイズ(150,4)のアイリスデータセットでした。 私はbackpropagationについて憂慮しています。勾配降下ではないので、一見すると適切な出力が得られるかどうかを確認するアルゴリズムを試しています。 しかし、私の問題は、私の初期重量マトリックスのグラデーシ

    0

    1答えて

    私はある時点で2つのサブネットワークに分岐するニューラルネットワークを持っています。 サブネットワークを別々にトレーニングすると、かなり良い精度が得られます。しかし、私は両方を訓練するとき、タスクの1つが共通レイヤーの重みをハイジャックして、本当に良い精度と低い精度で1つのタスクを作成するように見えるようです。 より強力なタスクの影響を減らすため、n回の反復で重み更新を定義することを考えました。

    1

    1答えて

    私はニュートラルなネットワークを研究しています。私は助けが必要なバックプロパゲーションの導出中に声明を出されました。 私の質問は、私は2番目の形式での共通要因を相殺した場合、総合計が倍にオリジナルの用語をkにはないのですか?そうです、どのように正しい展開ですか? PS:あなたが言ったように、あなたが共通の要因を相殺すると式がhttp://neuralnetworksanddeeplearning.

    0

    1答えて

    特定の日付に太陽エネルギー値を予測しようとしています。この目的のために、私は人工ニューラルネットワークモデルを使用しています。正しい起動関数を決定する際に問題があります。シグモイド関数は0-1の出力を与えるので、256.33のように出力したい。だから私は隠れ層にSigmoidを、出力層にはReLuをネットワークに非線形性を持たせることを考えました。これを行う方法は何ですか?私のアプローチは正しいの

    0

    1答えて

    私は、Python 3.6でバニラの3層RNNを作成しようとしていましたが、トレーニングを受けるたびに最初のX回のトレーニング反復が散発的に私は問題を特定できません。これらのNNの仕組みをよりよく理解しようとしているため、TensorflowやKerasなどの深い学習フレームワークを使用することは望ましくありません。 私の問題は、前向きな小道具の機能で、あるいは私のバックプロップ関数のエラーと重量