backpropagation

    0

    1答えて

    私は、Neuroph 2.9フレームワークを使用して、ANNをコードして住宅価格を予測しています。私はすべてのエポックを実行するたびにすべてのエラーを取得したい(グラフのエラーの改善を表示する)が、この原因エラーです。 // create multi layer perceptron System.out.println("Creating neural network");

    7

    2答えて

    この Paperに導入された「ガイド付きバックプロパゲーション」のテクニックをTensorFlowに実装したいと考えています。これは recipeに記載されています。 これは、たとえば入力wrtのグラジエントを計算するときに計算されることを意味します。 NNの出力は、すべてのRELUユニットで計算されたグラジエントをに変更する必要があります。具体的には、これらのユニット上の逆伝播された信号は、この

    -2

    1答えて

    この記事を複製しようとしていますhttps://arxiv.org/pdf/1606.07659v1.pdf Keras。推奨システムとして自動エンコーダを使用します。このアイデアは、他の値を正しく再構築しながら未知の値を予測するようネットワークに教えるために、既知の値(評価)の一部を隠すことです。 したがって、マスキングされていない既知の値、マスクされた既知の値(0になる)、および未知の値(0に

    2

    1答えて

    を私はそれがsigmoidとtanh活性化機能の両方を使用するオプションを提供しますthis blog から次codeで探しています。私はオンラインで見つけるとanother piece of codeでこれを試してみた(0.5,0.5,0.5,0.5) 〜 XORテストは〜(0,1,1,0) を得tanh機能が正常に動作するようです。しかしsigmoidに変更すると、私は間違った出力を得ますまっ

    1

    1答えて

    標準的な背景を使用して、XORを学ぶために最大8つのバイナリ入力でネットワークをトレーニングできます。だから、256個の入力セットの合計だし、出力が正しく8入力が残りが0 レイアウトされ、唯一の8つの入力の1であることを設定します識別します •8入力。 •1ノードが2つ以上ある隠しレイヤー。アウト• :1つのノード 私はより多くの隠されたノードを使用する場合、それはより少ない約500エポックを、で

    0

    1答えて

    こんにちは私は今、ニューラルネットで遊んでいます。私はこのチュートリアルの一種の再実装を行った: http://www.ai-junkie.com/ann/evolved/nnt5.htmlしかし、魚や食べ物、そしてまた異なるプログラミング言語。しかし、その点は同じです。 私はたくさんの魚(20個)といくつかのフオーズ(40個)を持っています。 各魚には脳があります(神経ネットワーク(私は今からA

    0

    1答えて

    最近、私はLenet-5 CNNを実装しようとしています。しかし、私はconv層から以前の層、例えばC3層からS2層への誤差をどのように伝播させるかにこだわりました。誰も私を助けてくれますか?

    1

    1答えて

    数日前、私は、ニューラルネットワークに関する、私はAIの講義で、今年学んだことを実際に入れてみました。私は、2つのニューロンだけで入力信号を複製する単純なものを作ろうとしました。 http://imgur.com/a/RixAH(フランス語のコメントは申し訳ありませんが、実際には重要ではありません) 奇妙なことは、収束していることですが、単純なバイナリ入力信号の場合は、次のようになります。信号が0