1
入力(出力)だけを持つニューラルネットワークを使って関数(線とは異なりますがx、y平面にあります:cos、sin、arc、expなど)を近似できますか隠れたニューロンの単一の層?ニューラルネットワーク:関数をフィッティングする
入力(出力)だけを持つニューラルネットワークを使って関数(線とは異なりますがx、y平面にあります:cos、sin、arc、expなど)を近似できますか隠れたニューロンの単一の層?ニューラルネットワーク:関数をフィッティングする
はい、できます。実際には、ユニバーサル近似理論では、要するに:単一の隠れ層を持つフィードフォワードネットワークは、どの連続関数にも近似できると言います。しかし、この層のニューロン数(非常に高くなる可能性があります)とそのようなネットワークのウェイトをアルゴリズム的に最適化する能力については何も言及していません。そのようなネットワークが存在するということだけは言う。ここで
は、証明のためにシグモイド活性化関数を使用Cybenko、によって元の出版物へのリンクです:http://mcneela.github.io/machine_learning/2017/03/21/Universal-Approximation-Theorem.html
: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.441.7873&rep=rep1&type=pdfそしてここでは、より友好的派生であります