2017-06-26 7 views
1

私は、入力データを持っています。ここで、各例は、長さkの変化する数のベクトルです。合計で私はn例を持っています。入力の次元はn *ですか? * k。疑問符はさまざまな長さを表しています。LSTMとkerasを組み込むことなく長さの異なるシーケンスデータを使用するには?

私は、可能であれば、を埋め込む使用せずは(それはあなたの普通の言葉データセットではありません)、KerasでLSTM層への入力にそれをしたいです。

誰かがこれを行う方法の短い例を書くことができますか?

データは現在、ダブルネストされたPython配列です。

example1 = [[1,0,1], [1,1,1]] 
example2 = [[1,1,1]] 
my_data = [] 
my_data.append(example1) 
my_data.append(example2) 

答えて

0

私はあなたがpad_sequencesを使用できると思います。これにより、すべての入力が同じ長さになるはずです。

+0

結構ですが、埋め込みレイヤーなしでmask_zerosを実行することはできません。つまり、モデルが間違ったものを学習する可能性があります。 – Uri

+0

入力がすべてゼロの場合、NNは単なるドットプロダクトなので、すべてゼロにする。私はこれを私のアプリケーションの1つで使いました。私はあなたが最初にやったのと同じ気持ちでした。しかし、トレーニングとテストの間にネットワークはゼロの出力を出しました。 – circuitdesigner5172

関連する問題