私はチュートリアルからANNを作っています。チュートリアルでは、シグモイドとdsigmoidは、以下の通りである:1を使用する場合シグモイド関数とシグモイド関数の派生ANN
dsigmoid(x) = sech(x)*sech(x)
:
sigmoid(x) = tanh(x)
dsigmoid(x) = 1-x*x
しかし、定義により、dsignmoidは、このように、それは(http://www.derivative-calculator.net/#expr=tanh%28x%29)であるべきで、シグモイド関数の誘導体でありますx * x、トレーニングは収束しますが、私が数学的に正しい導関数を使用すると、つまり、トレーニングのプロセスは収束しません。
なぜ1-x * xが働く(モデルを修正するように訓練されたモデル)、そして数学的派生sech (x)はありません(反復の最大回数が間違った重みを保持した後に得られるモデル)
あなたの質問がありますか? – Carcigenicate
質問を明確にしました – johnlowvale