perceptron

    0

    1答えて

    私はsklearn.neural_network.MLPClassifierを使用しています。私はearly_stopping機能を使用しています。この機能は、検証の分割(デフォルトでトレーニングデータの10%)を使用して、各繰り返しのパフォーマンスを評価します。 しかし、私の問題はマルチラベルです。 APIによると、検証ではサブセットの精度が使用されます。これは、マルチラベルの問題では非常に厳し

    1

    1答えて

    1週間後、私は1つの層(Javaで)でパーセプトロン神経回路網を作ろうとします。私はニューロンの出口を計算するHeavyside関数と、機械学習のためのWidrow-Hoffのアルゴリズムを使用します。 私の問題は、学習後、私は私のコンピュータにいくつかの例を与え、時々彼は正しく答える、時々彼はひどく答えます。ですから、私の質問は次のようなものです。「学習後にコンピュータに悪い回答を与えるのは可能

    0

    1答えて

    私はパーセプトロン1層で助けが必要です。私は関数sigmoideを使って関数を伝達し、アルゴリズムは学習のために伝搬します。私はAとBを計算するための単純なニューラルネットワークを論理的にやりたい私の問題は、私が2つの値(exemple 0と0)を学習し、私のIAが私に常に0.99を与えた後です。私はコードを3回見て、なぜ私のプログラムが学習後に悪い答えを返すのか分からない。私を助けてください。

    0

    2答えて

    パーセプトロントレーニングアルゴリズムの入力に同じタイプが必要ですか? すなわち、1つの入力にブール型があり、別の入力に整数型がありますか?

    -1

    1答えて

    私は資格と価格で車の分類をしたいと思います。私はMLPでそれを行うべきですが、XORの例以外に他の例はありません。私は6つの条件があり、それらをvhighの[1,0,0,0]のように倍にしています(条件はUICIのリンクにあります)。 ここに私のMLPコードがあります。 uciデータセットでトレーニングするDatasetこのコードにどのように適応させることができますか? 編集:私はXORの問題以外

    0

    1答えて

    私のパーセプトロンコードに問題があります。私は私の2つのtxtファイルをチェックして、私はかなり確信しています。だから誰かを助けることができる? mistakes!=0場合どうもありがとう Traceback (most recent call last): File "perceptron.py", line 160, in <module> test() File

    1

    1答えて

    ここにコードです。 public class Adaline { private int _layer; public int Layer { get { return _layer; } } private int _epoch; public int Epoch { get { return _epoch; } } private doubl

    0

    1答えて

    1つの隠れ層(RELU活性化関数付き)を持つパーセプトロン(完全に接続されたレイヤを持つニューラルネットワーク)をTensorflowで作成し、それをMNISTデータで正常に実行し、90 %+精度。しかし、2番目の隠れ層を追加すると、確率的勾配降下の多くのミニバッチの後でさえも、非常に低い精度(10%)が得られます。なぜこのようなことが起こるのでしょうか?私が役に立つと思えば、この投稿に私のPyt

    -1

    1答えて

    私はパーセプトロンの作成方法を自分自身で教えようとしてきました。私がこれまでに遭遇した唯一の問題は、入力の存在の背後にある直感は、パーセプトロンの重み更新にあるものを理解されています重量 変更を=私は、次のされている割合*エラー*入力 を学びますthis linkしかし、それはその存在を説明しておらず、どちらの本もNeural Network Programming with Javaを使っていま

    1

    1答えて

    これで投票パーセプトロンアルゴリズムパーセプトロン投票します。これは私の擬似コードです: #m is the number of examples Initialize k = 0, a1 := 0, c1 := 0 Repeat for T epochs: for i = 1 to i = m if (x[i], y[i]) is classified correct