7
私は、多層フィードフォワードニューラルネットワークでは、入力層にバイアスニューロンを含めるべきか、これは隠れ層でのみ有効であると思いますか?もしそうなら、なぜですか?入力層にバイアスニューロンを含める必要がありますか?
いいえ、
Tunnuz
私は、多層フィードフォワードニューラルネットワークでは、入力層にバイアスニューロンを含めるべきか、これは隠れ層でのみ有効であると思いますか?もしそうなら、なぜですか?入力層にバイアスニューロンを含める必要がありますか?
いいえ、
Tunnuz
をいただき、ありがとうございます、それはバイアスニューロンから受信した任意の活性化が完全に実際の入力によって上書きされるので、入力層は、バイアスニューロンへの接続は必要ありません。
例えば、(バイアスニューロンがちょうど1マークされている)、このアーキテクチャを使用して、古典的なXOR problemを解決しようとしているネットワークを想像:
は、入力時にこのネットワークを実行するには(1 、0)、ニューロンX1 = 1とX2 = 0の活性化をクランプするだけです。ここで、X1またはX2がバイアスからの入力も受け取った場合、その入力はオーバーライドされ、そのような接続は無意味になります。
私は間違っていますか?あなたの図でバイアスニューロンは入力層の一部ですが、隠れ層に転送されています。 – tunnuz
Eh、ちょっと。バイアスニューロンは、通常、常にそれ自身の層内にあると常に描かれている。私はあなたの質問が入力層のユニットにバイアスユニットを接続するかどうかについて考えていました。どちらの場合でも、答えは企業のいいえです。あなたは常に、一定の活性化を持ち、それ自身の層にある単一のバイアスユニットが必要です。一般的には、入力されていないすべてのレイヤーに接続します。 – zergylord
詳細については、この質問を参照してください:http://stackoverflow.com/q/7175099/821806また、それは私の姿ではなく、私がここから得たものです:http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord