let k = alpha * partial_derivative (J (theta1)) w.r.t theta1 theta1 := theta1 - kです。 アンドリューのコースでは、彼はアルファが学習率であると言いました。デリバティブが正の場合はalpha * kを引いて、負の場合はそれを加算します。なぜalpha * just the sign of derivativeではなくa
私は非常に素朴な勾配descentをPythonで実装しようとしています。しかし、それは無限ループになるようです。私はそれをデバッグするのを助けてくれますか? y = lambda x : x**2
dy_dx = lambda x : 2*x
def gradient_descent(function,derivative,initial_guess):
optimum = ini