私はいくつかの文字から数百個の言葉に、異なる長さの入力テキストを持っているので、私は明らかに(すべてのバッチの代わりに修正MAX_LENGTHのバッチごとに異なるMAX_LENGTHを使用することにしました小さいテキストの場合はMAX_LENGTHを短くします)。リカレントニューラルネットワーク(RNN)
グーグル後、私は、次の溶液を得たKerasのgithubのページでthisスレッドを見た:
配列は長さによってグループ化、およびKerasに送られる前に、その長さによって手動 バッチにセグメント化されるべきです。
私はこのトリックを使用すると、トレーニング時にデータをシャッフルする方法がないと推測して、オーバーフィットにつながる可能性があります。
私は、このトリックを使用するKaggleの多くの不満を見ました。私はこの問題のための他の解決策があることを知りたいですか?