ただ、ニューラルネットワークが乗算関数(回帰タスク)に近似できるかどうかをテストしたかっただけです。 私はAzure Machine Learning Studioを使用しています。私は6500サンプル、1隠れたレイヤー (私は隠れたレイヤー当たり5/30/100ニューロンをテストしました)、正規化はありません。デフォルトのパラメータは Learning rate - 0.005, Number of learning iterations - 200, The initial learning weigh - 0.1, The momentum - 0 [description]です。私は0に近い非常に悪い精度を得ました。 同時に増強された意思決定森林回帰は非常に良い近似を示します。隠れ層が1つのニューラルネットワークで簡単な乗算関数を近似できない
私は間違っていますか?この作業はNNにとって非常に簡単です。