derivative

    0

    1答えて

    私は、異なる方法で振幅1の正弦波の数値微分を計算しました。位相はOKのようですが、私は元の信号の同じ振幅(〜1)を期待していたとき〜6の微分信号振幅を得ています。私はなぜこれが起こっているのか理解する助けに感謝します。 は、ここに私のコードと微分値スケールとスケールではないとのプロットです: # -*- coding: utf-8 -*- from __future__ import divis

    1

    2答えて

    softmax関数の微分行列(Softmaxのヤコビ行列)を実装しようとしています。 IはXjのに対して、ソフトマックス(XI)の誘導体である数学的に知っている:赤デルタはクロネッカーのデルタである 。 は、これまでのところ、私が実装したものです: def softmax_grad(s): # input s is softmax value of the original input

    0

    1答えて

    sympyでブール型変数を含む関数の派生を取ろうとしています。 マイ期待される結果: 真または偽であるブール値に応じて、2つの異なる誘導体(すなわち1または0)。 例:コメントの後 import sympy as sy c, x = sy.symbols("c x", positive=True, real=True) bo = sy.Function("bo") fct1 = sy.Fun

    1

    1答えて

    私はderivパッケージを使用して微分を計算しましたが、除算後の出力は本当に困惑します。ここ は私の機能と結果である: testFunction <- function(x) x/(x^2+1) Deriv(testFunction) function (x) { .e1 <- x^2 .e2 <- 1 + .e1 (1 - 2 * (.e1/.e2))/.

    1

    1答えて

    だから、私は Wという名前はshape=[1]です。 tf.hessians(loss, W)は、同じことであるにもかかわらず、tf.gradients(tf.gradients(loss, W), W)と同じではありません。つまり、2次導関数です。 https://gist.github.com/guillaume-chevalier/6b01c4e43a123abf8db69fa9753299

    1

    1答えて

    をサポートしていない該当なし値がトレースバックです: Traceback (most recent call last): File "test.py", line 39, in <module> hess = tf.hessians(loss, wrt_variables) File "/usr/local/lib/python3.4/dist-packages/t

    1

    7答えて

    私は、行列の各要素のRelu微分を計算し、結果を行列で返す関数を実装しようとしています。私はPythonとNumpyを使用しています。 他のクロスバリデーションの記事に基づいて、xのRelu誘導体が 1は、x> 0、0時にX < 0、未定義またはX == 0 現在、私は次のコードを持っている0 far: def reluDerivative(self, x): return np.arr

    1

    1答えて

    私はニュートラルなネットワークを研究しています。私は助けが必要なバックプロパゲーションの導出中に声明を出されました。 私の質問は、私は2番目の形式での共通要因を相殺した場合、総合計が倍にオリジナルの用語をkにはないのですか?そうです、どのように正しい展開ですか? PS:あなたが言ったように、あなたが共通の要因を相殺すると式がhttp://neuralnetworksanddeeplearning.

    1

    1答えて

    確率を計算するには、$\frac{\partial^5 f}{\partial x_1^2 \partial x_2^3}$のように導関数を計算して評価する必要があります。$f$は多項式関数です。問題は、デリバティブの注文が変わる可能性が高く、デリバティブが計算される変数のリストが変わる可能性が高いことです。 私はすでにrSymPyとRyacasで試してみましたが、変数の数が重要になるまで動作しま