backpropagation

    1

    1答えて

    最近、ニューラルネットワークについて学び始め、自分の単純な2層ANNをコード化し、MNISTデータセットを使用してベンチマークすることに決めました。バッチサイズがユーザーによって提供されるバッチSGDを使用してプログラムを作成しようとしました。次のように私のコードは次のとおりです。 class NeuralNetwork: def __init__(self, inodes, hnode

    11

    1答えて

    TLDR 私はMNIST上の簡単なニューラルネットワークに合うようにしようとしている、そしてそれは小さなデバッグのセットアップのために動作しますが、私はMNISTのサブセットにそれを上に持って来るとき、それは超高速列車勾配は非常に速く0に近いですが、任意の入力に対して同じ値を出力し、最終的なコストは非常に高くなります。私は意図的にそれが実際に働いていることを確認するために過度にしようとしていました

    2

    1答えて

    私はPythonでカスタム損失を伴うKerasを使用してニューラルネットを構築しようとしています。最後のレイヤーで活性化関数としてシグモイド関数を持ち、カスタム損失の始めにシグモイドを持つかどうかは同じですかない。だからここに私はそれによって何を意味するかです: 私は2番目のモデルでは損失が計算されていることを感じを持っていますが、それはバックその間それが最初のモデルでS状結腸を介して伝播されてい

    -1

    1答えて

    私は、フォワード伝播を実行することができる多重層ニューラルネットワークを設定しており、逆伝播を実行できるはずですが、どのように作業。バックプロパゲーションの仕組みに関するすべてのリソースは、現在のネットワークに固有のものであるか、理解しづらいものであるようです。役に立つリソースを見つけるのを手助けできますか?私のネットワークはJavaで書かれています。もしそれがリソースの絞り込みに役立つならば。

    2

    1答えて

    この記事を読む時間をもう一度いただきありがとうございます。 私はこの質問には多くのことを尋ねてきた、と私は、この問題に関する多くの記事をチェックして知っている:しかし、バックプロパゲーションを使用してsucessfull XOR学習のための私の探求は未完成のまま。 私は示唆したように、学習率、勢い、調整の有無などを試してみましたが、まだ成功しませんでした。 ネットワークは2入力ニューロン、2隠れニ

    0

    1答えて

    私は、バックプロパゲーションのニューラルネットワークをPythonでプログラミングしようとしています。 Usually converges to 1. To the left of the image there are some delta values. They are very small, should they be larger? Do you know a reason why t

    2

    1答えて

    NNとバックプロパゲーションでthis tutorialに従っています。 私はPythonの初心者です。コードをMATLABに変換しようとしています。 誰かが親切に(チュートリアルから)次のコード行を説明できます:要するに delta3[range(num_examples), y] -= 1 を、私は間違っていないよ場合、delta3とyはベクトルであり、num_examplesは整数です。

    1

    1答えて

    私は学校プロジェクトのためにOCRプログラムを作成する必要があるため、私はウィキペディアの助けを借りてバックプロパゲーションアルゴリズムを作成し始めました。私のネットワークを鍛えるために、私は数日前に抽出したMNISTデータベースを使って、実際のイメージファイルを持っています。しかし今、エラーは常に約237であり、しばらくトレーニングした後、誤差と重みはNaNになります。私のコードで何が間違ってい

    0

    2答えて

    私は、ベクトルvを生成する通常のフィードフォワードネットワークを持っています。次に、vの要素は、疎行列Mの非ゼロエントリーとして使用されます(座標はあらかじめ定義されているものとします)。その後、疎な行列に密なベクトルが乗算され、結果のスカラーに損失が定義されます。私は損失w.r.tを逆伝播したい。ネットワークの重みは、疎な行列を通過する必要があります。 これはまれな行列の完全に妥当なユースケース