ディープオートエンコーダー(漏洩ReLuを使用して5レイヤーエンコーディングと5レイヤーデコード)をトレーニングして、データの次元数を約2000個のディムスから2に減らしました。私のモデルを10kデータに訓練して、結果は受け入れられます。 大きなデータ(50k〜1M)を使用しているときに問題が発生します。同じオプティマイザで同じモデルを使用するとドロップアウトなどは機能せず、トレーニングは数エポック後に止まってしまいます。 私はオプティマイザ(私はアダムを使用しています)でいくつかのハイパーパラメータ検索をしようとしていますが、これで問題が解決するかどうかはわかりません。ディープオートエンコーダートレーニング、小データ対ビッグデータ
変更/確認する必要がありますか?この場合、バッチサイズは重要ですか?オプティマイザを微調整して問題を解決する必要がありますか? Shoul私はドロップアウト比率で遊ぶ? ...
アドバイスをいただきありがとうございます。
P.S.私はKerasを使用しています。それは非常に便利です。あなたはそれについて知っていない場合は、それをチェックアウト:あなたは真ん中のサイズを変更した場合
1)何が起こる:問題の原因を発見しようとしたときhttp://keras.io/
ありがとうございます!これらのヒントはすべて役に立ちます。私は異なる10kのサブサンプルをテストしましたが、違いはありませんので、サンプルは公平に選択されていると推測します。符号化レイヤのサイズに関しては、サイズを大きくしても効果はありません。私は2の代わりに10に増やそうとしました。この場合、10kも50kも正しく訓練されません。 – Mos