これは詳細な概念的な問題であり、これが正しいプラットフォームではない場合は別の場所で使用します。Python Keras LSTM学習が高損失で収束するのが速すぎる
私はKeras LSTMシーケンシャルモデルを使用してテキストのシーケンスを学習し、数値にマッピングします(回帰の問題)。
問題は、学習が常に高損失(トレーニングとテストの両方)に収束することです。可能なすべてのハイパーパラメータを試しましたが、モデルの高いバイアスを引き起こす極小の問題だと感じています。
私の質問は基本的には、次のとおりです。
- この問題与えられた重みとバイアスを初期化する方法は?
- 使用するオプティマイザはどれですか?
- ネットワークをどの程度深く拡張する必要がありますか(非常に深いネットワークを使用するとトレーニング時間が長くなり、モデルの分散が大きくなることがあります)
- トレーニングデータを追加する必要がありますか?
入力と出力はminmaxで正規化されます。
私はいくつかのエポックの後に重みを印刷し 多くの重み がゼロであることに気づいた、現在3つのLSTM層(126256128)と2つの緻密層(200および1出力ニューロン)、勢いでSGDを使用しています
残りは基本的に1の値を持つ(またはそれに非常に近い)。ここで
はtensorboardからいくつかのプロットである:非常に高い損失と
私は '' adam''オプティマイザを使うのが好きです。それはしばしば自動的にその方法を見つけます。しかし、あなたの答えは、多くのテストや詳細なしには与えられません。あなたの学習率は高すぎるかもしれませんが、それが唯一の原因ではないかもしれません。 –
あなたのアクティベーション機能は何ですか? –