2011-08-30 15 views

答えて

6

をいただき、ありがとうございます、それはバイアスニューロンから受信した任意の活性化が完全に実際の入力によって上書きされるので、入力層は、バイアスニューロンへの接続は必要ありません。

例えば、(バイアスニューロンがちょうど1マークされている)、このアーキテクチャを使用して、古典的なXOR problemを解決しようとしているネットワークを想像:

enter image description here

は、入力時にこのネットワークを実行するには(1 、0)、ニューロンX1 = 1とX2 = 0の活性化をクランプするだけです。ここで、X1またはX2がバイアスからの入力も受け取った場合、その入力はオーバーライドされ、そのような接続は無意味になります。

+1

私は間違っていますか?あなたの図でバイアスニューロンは入力層の一部ですが、隠れ層に転送されています。 – tunnuz

+0

Eh、ちょっと。バイアスニューロンは、通常、常にそれ自身の層内にあると常に描かれている。私はあなたの質問が入力層のユニットにバイアスユニットを接続するかどうかについて考えていました。どちらの場合でも、答えは企業のいいえです。あなたは常に、一定の活性化を持ち、それ自身の層にある単一のバイアスユニットが必要です。一般的には、入力されていないすべてのレイヤーに接続します。 – zergylord

+0

詳細については、この質問を参照してください:http://stackoverflow.com/q/7175099/821806また、それは私の姿ではなく、私がここから得たものです:http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord

関連する問題