の形がthis LSTM Autoencoderの場合、"test.py"は(128,8,1)です。 8桁の128組を意味する。私は、このモデルを時系列ベースのデータに合わせて、4セットの25,000時間ステップ(基本的には0秒から25,000秒)で適応しようとしています。このデータセットを形状(4,25000,1)のp_input
に入力しようとしましたが、エラーは発生しませんでした。しかし、私がスクリプトを実行すると、iter 1: 0.01727, iter 2: 0.00983, ...
を得るのではなく、私はスクリプトからの印刷されたフィードバックを得られないので、何かがスクリプトを保持していると仮定します。私はbatch_num
を4に、step_num
を25000に編集していない "test.py"ファイルに直接変更しようとしましたが、印刷されたフィードバックのない同じ結果が発生しました。スクリプトが大規模なデータセットで実行されているときにLSTMオートエンコーダが進行しない
「test.py」のp_inputs
は、tf.split
とtf.squeeze
操作を計算するのには時間がかかりすぎます。もう一つの考えは、隠しLSTMユニットの数をhidden_num
に増やしたり、エポック数を増やす必要があるかもしれないということです(iteration
)。さらに、batch_num
はstep_num
より大きくなければならない可能性があります。私はstep_num = 4
とbatch_num = 25000
で "test.py"を試してみましたが、このスクリプトは正常に動作していました。
スクリプトの実行を保留する際に問題が発生する可能性があることについて、ご意見をお聞かせください。
ありがとうございます。 25,000のタイムステップは補間とポイント数の選択から来ます。私はいつもそれを変更することができます。タイムステップの最大数はどのようにすべきですか?また、すべてのリンクを読んだ後でも、チャンクをどうやってやっているのかは分かりません。 –
私は答えを編集しました。それが明確であるかどうか教えてください。タイムステップの最大数に関係するものは、ニーズに応じて異なります。 LSTMは過去にかなり依存していた依存関係を学習することができますが、私の経験では、100回のステップを上回ることは良くありません。 1つの入力として、時間ディメンションで長すぎるチャンクを超えないようにしてください(20〜50を保つ方が良い) –