答えて

1

はい、回帰、その主な違い、出力レイヤー、およびコスト関数について深い学習を使用できます。複数の隠れた層があり、最後の層にsoftmaxの代わりにf(x)= xという活性化関数があるとします。ここで、xは最後の隠れ層全体の加重和です。

コスト関数では、一般的なクロスエントロピー(通常はsoftmaxで使用される)の代わりに、たとえば平均二乗誤差を使用します。回帰を実行するために作成したこのニューラルネットワークを見てください(Pythonで最初から書かれていますが、それをアイデアとしていくつかのフレームワーク上で実装できます)https://github.com/llealgt/bikeshare_regression_neural_network/blob/master/DLND%20Your%20first%20neural%20network.ipynb

+0

ありがとう@Luis leal。あなたに合意しました。私はsoftmaxを交換する必要があります。しかし、私はそれを置き換えることができました。私は回帰のためにこのスクリプトを使用しています。[リンク](http://www.mathworks.com/help/nnet/ug/construct-deep- network-using-autoencoders.html#nnet-ex20671592) –

+0

。私はまだ問題はありません。それはそのままです –

関連する問題