1
私は、入力データを持っています。ここで、各例は、長さkの変化する数のベクトルです。合計で私はn例を持っています。入力の次元はn *ですか? * k。疑問符はさまざまな長さを表しています。LSTMとkerasを組み込むことなく長さの異なるシーケンスデータを使用するには?
私は、可能であれば、を埋め込む使用せずは(それはあなたの普通の言葉データセットではありません)、KerasでLSTM層への入力にそれをしたいです。
誰かがこれを行う方法の短い例を書くことができますか?
データは現在、ダブルネストされたPython配列です。
example1 = [[1,0,1], [1,1,1]]
example2 = [[1,1,1]]
my_data = []
my_data.append(example1)
my_data.append(example2)
結構ですが、埋め込みレイヤーなしでmask_zerosを実行することはできません。つまり、モデルが間違ったものを学習する可能性があります。 – Uri
入力がすべてゼロの場合、NNは単なるドットプロダクトなので、すべてゼロにする。私はこれを私のアプリケーションの1つで使いました。私はあなたが最初にやったのと同じ気持ちでした。しかし、トレーニングとテストの間にネットワークはゼロの出力を出しました。 – circuitdesigner5172