neural-network

    6

    1答えて

    完全に接続されたPyBrainネットワークとの間でニューロンとその関連接続を追加/削除する良い方法はありますか?私はで始まる言う: from pybrain.tools.shortcuts import buildNetwork net = buildNetwork(2,3,1) どのように私はすべての新しいものをすべての古い重みを維持する(および初期化中に、それ(2,4,1)または(2,2

    20

    1答えて

    私はニューラルネットワークのプログラミングを始めました。私は現在、バックプロパゲーション(BP)ニューラルネットがどのように機能するかを理解するために取り組んでいます。 BPネットのトレーニングアルゴリズムは非常に簡単ですが、なぜアルゴリズムが動作するのかについてのテキストは見つかりませんでした。具体的には、ニューラルネットでシグモイド関数を使用することを正当化するための数学的な推論と、それらにス

    7

    1答えて

    これは簡単なことですが、私はPyBrainのドキュメント、ここや他の場所で有用なものを探すのに苦労しました。 問題はこれです: 私はPyBrainに建設され、訓練された3層(入力、隠し、出力)フィードフォワードネットワークを持っています。各レイヤーには3つのノードがあります。私は、新しい入力を使ってネットワークをアクティブにし、結果として隠れた層にノードのアクティブ化値を保存します。私が知る限り、

    2

    1答えて

    Neuroph 2.6のNeuroph ImageRecognitionのFractionRgbDataクラスに関する質問があります。私は静的なFractionRgbData.convertRgbInputToBinaryBlackAndWhite(double[] inputRGB)メソッドの実装を完全に理解していません(下記のメソッドのコピーを参照)。具体的には、forループの条件で入力配列の

    9

    1答えて

    私は、サッカーの試合の結果をencogで予測するプログラムを作っています。私はニューラルネットワークを作成し、弾力性のある伝播訓練法で90試合のデータで訓練しました。私は家庭の勝利のために1、引き分けに0、離れて勝つために-1として試合の結果をマークしました。 問題は予測中です。時には私は50%の成功率を得て、それ以外の時は33%と低くなります。それはランダム関数を使用するようなものです。私が気づ

    1

    3答えて

    私はニューラルネットワークを訓練しており、ランダムウェイトから始めています。訓練の後、体重は変化したが、ニューラルネットワークの精度は開始体重と同じである。また、ネットワークのアーキテクチャをどのように変更するかは関係ありません。隠れ層のノード数、反復回数、フィーチャ数(次元削減のためにPCAを使用)これは開始時と同じ精度で実現します。これは、フィーチャの数に関するサンプルの数が少ないためですか?

    5

    1答えて

    問題を解決するためにニューラルネットワークを使用しようとしています。私はCourseraで提供されているMachine Learningコースからそれらについて学んだし、FANNがRubyのニューラルネットワークの実装であることを知ってうれしかったので、飛行機を再発明する必要はありませんでした。 しかし、なぜFANNが私にそのような変な出力を与えているのか、私は理解できません。私が授業で学んだこと

    13

    4答えて

    私は、学習のためにバックプロパゲーション技術を使用してニューラルネットワークを作成しています。 私は使用されたアクティベーション機能の派生物を見つける必要があることを理解しています。私は f(x) = 1/(1 + e^(-x)) 標準シグモイド関数を使用していると私はその誘導体は、これがばか質問かもしれ dy/dx = f(x)' = f(x) * (1 - f(x)) であることを見て

    10

    2答えて

    私は最近Courseraの教授Ng's Machine Learningコースを完了しました。コース全体を愛していましたが、ニューラルネットワークのトレーニングのバックプロパゲーションアルゴリズムを理解することはできませんでした。 私が理解している問題は、完全に接続されたフィードフォワードネットワークのためのベクター化された実装を教えていることだけです。私の線形代数は錆びているので、誰かが私に汎用

    6

    1答えて

    手書きテキスト用のOCRアプリケーションでは、フィードフォワードNNとバックプロパゲーショントレーニングを使用することに決めました。入力レイヤーは32 * 32(1024)ニューロンとなり、少なくとも8-12アウトニューロンを置く。 私はNeurophがいくつかの記事を同時に読むことで使いやすくなっていますが、Encogはパフォーマンスが数倍優れています。私のシナリオでは、APIが最も適したパラメ