2011-01-30 4 views
0

のように、行列N * Nとx1 x2の出力を格子状に並べたものがあります。 x1とx2をデータに近づける訓練可能なネットワークを作りたいと考えています。その隠れたレイヤー構造はどのように見えますか? x1をx2に、x2をx1に変えないといいと思います。 NxN行列を入力とし、出力としてx1とx2という2つの数値を生成する訓練可能なネットワークを構築したいと考えています。1入力(行列N * N)と2つの出力を持つNNの正しい隠れ層をどのように構成する必要がありますか?

+0

違反はありませんが、これはほとんどわかりません。 NxN行列を入力とし、2つの数x1、x2を出力として生成する訓練可能なネットワークを構築したいとします。あれは正しいですか? – Beta

+0

はいいいえベータ=) – Rella

答えて

0

隠れ層の構造は、含まれるニューロンほど重要ではありません。

一般に、1つまたは2つの隠れ層を持つ完全に接続されたネットワークを使用できます。 1の隠れたレイヤーはほとんどの問題で機能しますが、2つの隠れたレイヤーにより、あなたのNNがあらゆる可能な関数を近似できることが保証されます。 2つ以上の隠れたレイヤーを使用する理論上の理由はありません。

隠れ層のニューロンの数によって、NNの正確さが決まります。あなたが持っているニューロンが多くなればなるほど、関数を近似するほうが良いでしょう。しかし、より多くのニューロンがあなたのNNにもっと多くの変数を含意するので、より大きなトレーニングセットが必要になります。また、トレーニングデータに余裕がある可能性が高くなります。これを避けるには、別のトレーニングとテストセットを使用して、オーバーフィットが発生したときを監視します。

答えは本当にあなたのデータセットの大きさに依存します。より大きい、より良い、より多くのニューロンを持つほど、あなたのNNはより正確になります。実験的に使用するニューロンの数を調べるには、異なる数字を試して、得られたNNを評価するのにcross validationを使用します。

+0

主な質問はどのようにN * N行列を食べるためにニューロンを作成する必要がありますか? – Rella

+0

私はあなたの質問を理解していないのではないか...再調整することはできますか? –