2017-03-24 12 views
1

これは深い学習文脈における様々な長さの時系列での作業についての概念的な質問です:私は時間を含み不規則な間隔で発生する標準化された機能の観測を持って深い学習と時系列:変ベクトルの長さ

すべての個別の測定で次に、この多変量時系列(パネルデータ)を各時系列の単一の連続特徴ベクトルに平坦化します。

xxxx(T=2)xxxx(T=4)xxxx(T=5) 
xxxx(T=1)xxxx(T=2) 
xxxx(T=3) 
xxxx(T=1)xxxx(T=2)xxxx(T=3)xxxx(T=5) 

そして、同じ長さにゼロで埋めて末端されています。私は、今、このように見えるこれらのベクター上のバイナリ分類タスクのための深いニューラルネットワークを構築します。

各「xxxxT」は、「x」が非時間的特徴であり、「T」が時間に基づく特徴である観測を表す。私の質問は、ニューラルネットワークがこの時系列の不規則な性質をそれ自身で区別することができると仮定できるかどうかです。

また、断続的に発生していない観測をこのように見えるようにする必要がありますか(「0000」は欠落した観測を埋め込むことを表します)。

0000(T=1)xxxx(T=2)0000(T=3)xxxx(T=4)xxxx(T=5) 
xxxx(T=1)xxxx(T=2)0000(T=3)0000(T=4)0000(T=5) 
0000(T=1)0000(T=2)xxxx(T=3)0000(T=4)0000(T=5) 
xxxx(T=1)xxxx(T=2)xxxx(T=3)0000(T=4)xxxx(T=5) 

私は実際にこれを既に実行し、両方のアプローチの結果を調べました。私は深いニューラルネットワークがこれを "解釈"する方法について誰かが少し光を当てることができるかどうかを見たいと思っていましたか?

答えて

1

リカレントネットを使用している場合は、シーケンス内を埋め込むことをお勧めしません。ウェイトは時間の経過とともに再利用されるため、パディングではなく「実際の」データに対して「機密」である必要があります。

end-of-sequenceパディングでは、 "sequence_length"引数を持つTensorFlowのtf.nn.dynamic_rnnメソッドなど、反復関数にシーケンス長を渡すことによって、この「偽データ」を回避します。このようにして、シーケンスの最後の「本当の」隠れた状態が時間を経てコピーされます。

イントラパディングを主張する場合、シーケンス内の隠れ状態をシーケンス終了パディングのようにコピーする実装が必要です。

右か?

+0

ありがとう@vega。それは私の解釈でもあります。私のケースでは、LSTM RNNアーキテクチャーを使用した場合(非常に長いトレーニング時間)、非常にわずかなパフォーマンス向上が見られました。それを正しく解釈すると、時間ベースのフィーチャがその影響を取り込むか、シーケンス間の時間的関連が実際には弱いということでしょうか?私の結果は、正確な話題についての学術論文を反映していますが、実際には解説されていません。 – Pylander

+0

LSTMを使用すると、何かに比べてわずかな改善がありますか? – vega

+0

フィードフォワードネットワークと比較してLSTM RNNを使用した場合の改善は小さかった。 – Pylander

関連する問題