derivative

    1

    1答えて

    ここに私のコードです。これは、あるx値で別の関数の導関数を評価する関数です。分数次数導関数(a)でも有効な出力を返すようにしたい。 from scipy.special import gamma import scipy.integrate as integrate import sympy as sp import scipy as sc import math def f(z):

    2

    2答えて

    x = 2のとき、下の関数から微分値を取得したいと思います。関数の形式を保持し、追加パッケージなしで微分値を得る方法はありますか? f <- function(x) return(x^3) たとえば、私は以下を試しましたが、動作しませんでした。 x=2 deriv(~f, "x") x=2 deriv(~body(f),"x") x=2 D(expression(f),

    0

    1答えて

    この割り当てのタスクは、レイヤの入力に対する損失の偏微分を計算することです。チェーンルールを実装する必要があります。 私は概念的にどのように機能を設定するのが難しいのですか。アドバイスやヒントをいただければ幸いです! 関数変数のサンプルデータは、最下部にあります。 def dense_grad_input(x_input, grad_output, W, b): """Calcula

    0

    1答えて

    に、私はC++でコンソールアプリケーションは、私の学校のプロジェクトのための数学関数の導関数を見つけるために作っていますが、結果は ((罪(x)は/ COS(のようなたとえば理解するのは難しいです(X^3から2 * x)のログそう)* 3 * X-2sqrt(x))を を、より良い出力を得るためにどのような方法があり、私が本当に好きなものたいと思います: 。 私はmathjaxがC++コンソールで

    0

    1答えて

    私はここで混乱しています。 のは、我々は簡単なグラフを持っているとしましょう: a = tf.Variable(tf.truncated_normal(shape=[200, 1], mean=0., stddev=.5)) b = tf.Variable(tf.truncated_normal(shape=[200, 100], mean=0., stddev=.5)) add = a+b

    1

    1答えて

    2つのリストxとyから数値微分(dy/dx)を計算してプロットしようとしています。私はscipy.interpolate.UnivariateSplineとscipy.interpolate.UnivariateSpline.derivativeを使用して勾配を計算しています。 y vs xのプロットはC1連続しているように見え、xに対してプロットしたときのスロープdy/dxも滑らかであると予想し

    1

    1答えて

    私はpyomoを使っていますが、目的関数を定義しています。モデルが解かれた後、目的関数には、それに付けられた特定のパラメータがあります。だから私はマルチインデックス変数[x1, x2, x3]を持っていた場合、私の二次目的関数は、このようなものと思われるでしょう:(x1^2 + 13*x2^2 + 10*x3^2) + (2*x1 +......)。 私の質問は:私は実際に目的から文字列形式でこの

    1

    1答えて

    でgradient()を使用せずにガウス関数(dx、dy)の1次導関数を計算する私のガウス関数はfspecial('gaussian', 4, 1)として開始しましたが、gradient()は最初の導関数を得るのにとても便利です。とにかく、gradient()を使わずに一次導関数を計算することはできますか?教科書の最初のステップとして示されているように、私は、ハリスコーナー検出器を作成するためにそ

    1

    1答えて

    3Dパーリンノイズベースの球状惑星ジェネレータを実装していますが、ノイズ計算で分析微分を活用しようとするとラインアーチファクトが発生します。 IQノイズを使用しようとすると、例えば 3D Perlin noise analytical derivative :私はミロ・イップの手法を用いて分析導関数を計算しています float IQturbulence(float3 p, int octaves,

    1

    1答えて

    relu activation関数に派生関数が含まれていないということはどのような影響を与えますか? How to implement the ReLU function in Numpyは、最大(0、行列ベクトル要素)としてreluを実装します。 勾配降下では、relu関数の派生を取っていませんか? 更新:Neural network backpropagation with RELU から こ