2017-11-03 20 views

答えて

1

はい、できます。実際には、ユニバーサル近似理論では、要するに:単一の隠れ層を持つフィードフォワードネットワークは、どの連続関数にも近似できると言います。しかし、この層のニューロン数(非常に高くなる可能性があります)とそのようなネットワークのウェイトをアルゴリズム的に最適化する能力については何も言及していません。そのようなネットワークが存在するということだけは言う。ここで

は、証明のためにシグモイド活性化関数を使用Cybenko、によって元の出版物へのリンクです:http://mcneela.github.io/machine_learning/2017/03/21/Universal-Approximation-Theorem.html

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.441.7873&rep=rep1&type=pdf

そしてここでは、より友好的派生であります

関連する問題