答えて

3

ニューラルネットワークの各層にn個のニューロンがあります。だから、あなたは0と各ニューロンの重みを初期化するならば、バックプロパゲーションの後にそれらのそれぞれが同じ重みを持つことになります:1層目のA1とA2

shallow neural network

ニューロンは関係なく、あなたが反復どのくらい同じ重みを持ちません。彼らは同じ関数を計算しているからです。

ロジスティック回帰の場合は、単にy = Wx + bであることは当てはまりません。

0

これは、重みがゼロに初期化されたニューラルネットは、単純なロジスティック回帰と同じくらい良いか、またはWX + bを計算する1つのユニットを持つNNを意味しますか?

+0

これは間違いありません。 – Mudits

関連する問題