私はニューラルネットワークを使い、バックプロパゲーションの導出をほぼ完璧に(最後に!)理解しています。しかし、私は少し疑いがありました。 すべての重量を同時に更新しているため、コストがより低くなるという保証があります。重みが1つずつ更新される場合、コストがより低くなり、線形回帰に似ています。しかし、すべての体重を同時に更新すると、最小値を超えない可能性がありますか?ニューラルネットワークのバックプロパゲーション
また、各テストケースの順方向伝播と逆伝播の後に重みを更新するようなバイアスを更新しますか?
最後に、私はRNNで読み始めました。 RNNのBPTTを理解するのに役立つ情報はありますか?
Cross-Validated(http://stats.stackexchange.com/)でこの質問を投稿すると運が増えるかもしれません。 Cross-Validatedは、機械学習のためのStackExchangeサイトです。 –
RNNを学ぶときに私が作った派生物があります。 https://github.com/lifuhuang/memo-of-thoughts/blob/master/Derivation%20of%20RNN.pdf –