0

私はいくつかの文字から数百個の言葉に、異なる長さの入力テキストを持っているので、私は明らかに(すべてのバッチの代わりに修正MAX_LENGTHのバッチごとに異なるMAX_LENGTHを使用することにしました小さいテキストの場合はMAX_LENGTHを短くします)。リカレントニューラルネットワーク(RNN)

グーグル後、私は、次の溶液を得たKerasのgithubのページでthisスレッドを見た:

配列は長さによってグループ化、およびKerasに送られる前に、その長さによって手動 バッチにセグメント化されるべきです。

私はこのトリックを使用すると、トレーニング時にデータをシャッフルする方法がないと推測して、オーバーフィットにつながる可能性があります。

私は、このトリックを使用するKaggleの多くの不満を見ました。私はこの問題のための他の解決策があることを知りたいですか?

答えて

2

パディングのデータがダミー値であるため、すべての入力シーケンスの長さが同じになります。

は、あなたがこれらの二つの配列があるとします。[1,2,3,1,2]

  • を、あなたは、1 [[1,2,3,1,2]
  • としてそれを維持します[1,3,2,3,0]

Maskingレイヤーでモデルを開始します。

これは、サンプルの追加の長さを自動的に無視します。

関連する問題