テンソルフロー関数tf.nn.dynamic_rnn
の出力を理解できません。このドキュメントでは、出力のサイズについてしか説明していませんが、各行/列が何を意味するのかはわかりません。ドキュメントから:tf.nn.dynamic_rnnテンソルフロー関数の出力の解析
出力:RNN出力
Tensor
。time_major == False(デフォルト)の場合、
Tensor
の形状:[batch_size, max_time, cell.output_size]
になります。time_major == Trueの場合、これは形の
Tensor
次のようになります。[max_time, batch_size, cell.output_size]
。cell.output_size
は整数 又はTensorShape
オブジェクトの(おそらくネストした)タプルである場合注、次いで
outputs
はcell.output_size
における形状データに対応する形状 を有するテンソルを含む、cell.output_size
として
同じ構造を持つタプルであろう。状態:最終状態です。
cell.state_size
がintの場合、 は[batch_size, cell.state_size]
となります。
TensorShape
の場合、これはの形になります。
int(おそらくネストされた)のタプル、つまりTensorShape
の場合は、 は対応する形のタプルになります。
outputs
テンソルは3次元行列ですが、各行/列は何を表していますか?
これは、「状態」は、ネットワークのすべての層で状態を保持していると思います。したがって、GRUを使用している場合、候補レイヤーとゲートレイヤーの出力の状態があり、GRUが多層RNNのセルであった場合、ネットワークの各レイヤーにこれらの状態があります。 – Engineero
@Engineeroはい、そうです、ありがとうございます。私は詳細は述べていませんが、多層RNNセルの状態は、各セルの状態のリストになります.LSTMセルはテンソルのペアなどとなります。 – jdehesa
@jdehesa - 私が提起したこの別の質問をご覧ください。 https://stackoverflow.com/questions/44116689/siamese-model-with-lstm-network-fails-to-train-using-tensorflow – Mithun