私はニューラルネットワークのプログラミングを始めました。私は現在、バックプロパゲーション(BP)ニューラルネットがどのように機能するかを理解するために取り組んでいます。 BPネットのトレーニングアルゴリズムは非常に簡単ですが、なぜアルゴリズムが動作するのかについてのテキストは見つかりませんでした。具体的には、ニューラルネットでシグモイド関数を使用することを正当化するための数学的な推論と、それらにスローされるほぼすべてのデータ分布を模倣するものを探しています。シグモイド関数はなぜニューラルネットで動作するのですか?
ありがとうございます!
良い答えですが、 "連続的な(したがって微分可能な)"という仮定は立っていません。例:abs(x)は0で連続ですが微分できません。 – Michael
真、編集私の答え – mbatchkarov
* "Kurt Hornikは1991年に、それが活性化関数の特定の選択ではなく、むしろニューラルネットワークに存在する可能性を与える多層フィードフォワードアーキテクチャそのものであることを示しました出力単位は常に線形とみなされます」* 実際、非線形活性化関数を必要とすることについては何も言わないようです。しかし、定理の正式な陳述では、「非定常、有界、単調増加する連続関数」があります。おそらく*有界*と単調な部分は非線形性を意味しますか? – Desty