gradient-descent

    0

    1答えて

    多変量線形回帰練習の一環として、Pythonで勾配降下関数を記述しようとしています。それは実行されますが、正解を計算しません。私のコードは以下の通りです。私はこの問題を終えるのに数週間努力してきましたが、進歩はゼロでした。 私は、多変量線形回帰関数を最適化するための勾配降下の概念を理解しており、「数学」は正しいと考えています。私はエラーが私のコードにあると信じていますが、私はまだPythonを学ん

    0

    1答えて

    私はネットワークを学ぼうとしますが、常にゼロ勾配を得ます。私はそれについて本当に混乱しており、私はそれが起こるどんな考えも持っていません。 I形式入力データを持っている(BATCH_SIZE、120、10、3)六層後(CONV1 - POOL1 - CONV2 - POOL2 -fc1 - FC2) I、サイズ1×1の出力を期待(0又は1)。これらはすべて実際にうまく動作します。 しかし、私がネッ

    2

    1答えて

    セイIIとtensorflow取引はシンプルかつニューロン使用してSGD持っている方法: In [0]: error.get_shape() Out[0]: TensorShape([Dimension(None), Dimension(1)]) 私がチェックした場合:私は2次元の誤差がありますその結果 data = np.array([ (0, 0), (0, 1),

    0

    1答えて

    JavaScriptで勾配降下アルゴリズムを使用した非常に単純な線形回帰を実装しましたが、複数のソースを参照していくつかのことを試した後、収束することはできません。 データは絶対線形であり、入力としては0〜30の数字だけで、x * 3は正しい出力として学習します。 Andrew Ng's course on Gradient Descent for Linear Regression Nanode

    0

    1答えて

    私はこの関数のグラデーションを取ろうとしています: loss function (N個のオブジェクト、m個の機能)。ここで def L(y,X,w): #loss function return np.sum(np.log1p(np.exp(np.dot(w,(-X.T*y))))) 偏微分の私の計算である:私は、勾配の数値評価を実施していた場合analytic gradient def g(y,

    0

    1答えて

    私はオクターブでグラデーションディセントを実装しようとしています。これは、これまで私が持っているコードです: function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters) %GRADIENTDESCENT Performs gradient descent to learn theta

    3

    1答えて

    私はいくつかのリカレントニューラルネットワーク構造を使用してマルチラベル分類を行っています。私の質問は、損失関数についてです:私の出力は、各ラベルのクラスを示すtrue/false(1/0)値のベクトルになります。多くのリソースは、ハミング損失が適切な目的であると述べています。しかし、ハミング損失は、勾配計算に問題があります。 H =平均(y_true XOR y_pred)、XORは損失の勾配を

    0

    1答えて

    以下のベクトル化された複数回線形回帰の形式が、インターセプトXと従属変数行列Y、m行n列n thetaパラメータ? Andrew Ngクラスでは、このベクトル化されていないコスト関数がどのように同じであるかについて、ここでは少し失われていますか?

    2

    2答えて

    私はOctaveで勾配降下を計算しようとしています。各反復で、私のテータは指数関数的に大きくなります。私は別の関数を直接コピーしているので、何が問題なのか分かりません。ここで は私の行列である: X = 1 98 1 94 1 93 1 88 1 84 1 82 1 79 y = 97 94 94 78

    1

    1答えて

    ネットワーク内に複数の損失層を定義すると、それらの端からネットワークの始めまでに複数の逆伝播が発生しますか?つまり、彼らはそのように働くのだろうか? 私はこのようなものがあるとします。 Layer1{ } Layer2{ } ... Layer_n{ } Layer_cls1{ bottom:layer_n top:cls1 } Layer_cls_loss1{ type: