を私はそれがsigmoidとtanh活性化機能の両方を使用するオプションを提供しますthis blog から次codeで探しています。私はオンラインで見つけるとanother piece of codeでこれを試してみた(0.5,0.5,0.5,0.5) 〜 XORテストは〜(0,1,1,0) を得tanh機能が正常に動作するようです。しかしsigmoidに変更すると、私は間違った出力を得ますまっ
私はJavaで基本的なニューラルネットワークを書いています。私は活性化関数を書いています(現在私はシグモイド関数を書いています)。私は、double(BigDecimalにアサルトされている)を使用しようとしています。実際には、トレーニングにはかなりの時間がかかります。しかし、私は、関数が大きな入力では機能しないことに気付きました。現在、私の機能は次のとおりです。 public static do