私はテンソルフローで、それぞれが異なるサイズの複数のsoftmax出力を持つネットワークを作成しようとしています。ネットワークのアーキテクチャは、 入力 - > LSTM - >ドロップアウトです。それから私は2つのソフトマックスレイヤーを持っています:10の出力のソフトマックスと20の出力のソフトマックス。これは、2組の出力(10と20)を生成し、それらを結合して最終出力を生成したいからです。私はTensorflowでこれを行う方法がわかりません。Tensorflowで複数のSoftmax出力を使用するには?
これまで説明したようなネットワークを作成するには、softmaxが1つしかないと思うので、このようなことができると思います。
inputs = tf.placeholder(tf.float32, [batch_size, maxlength, vocabsize])
lengths = tf.placeholders(tf.int32, [batch_size])
embeddings = tf.Variable(tf.random_uniform([vocabsize, 256], -1, 1))
lstm = {}
lstm[0] = tf.contrib.rnn.LSTMCell(hidden_layer_size, state_is_tuple=True, initializer=tf.contrib.layers.xavier_initializer(seed=random_seed))
lstm[0] = tf.contrib.rnn.DropoutWrapper(lstm[0], output_keep_prob=0.5)
lstm[0] = tf.contrib.rnn.MultiRNNCell(cells=[lstm[0]] * 1, state_is_tuple=True)
output_layer = {}
output_layer[0] = Layer.W(1 * hidden_layer_size, 20, 'OutputLayer')
output_bias = {}
output_bias[0] = Layer.b(20, 'OutputBias')
outputs = {}
fstate = {}
with tf.variable_scope("lstm0"):
# create the rnn graph at run time
outputs[0], fstate[0] = tf.nn.dynamic_rnn(lstm[0], tf.nn.embedding_lookup(embeddings, inputs),
sequence_length=lengths,
dtype=tf.float32)
logits = {}
logits[0] = tf.matmul(tf.concat([f.h for f in fstate[0]], 1), output_layer[0]) + output_bias[0]
loss = {}
loss[0] = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits[0], labels=labels[0]))
しかし、今、私は(ドロップアウト後)私のRNNの出力が2つのソフトマックス層に流入したい、サイズ10とサイズ20の別の1誰もがこれを行う方法のアイデアを持っていますか?
おかげ
編集:理想的には私は、このようなこのKnetジュリアライブラリにここで定義されているものとして、ソフトマックスのバージョンを使用したいと思います。 Tensorflowには同等の機能がありますか? https://github.com/denizyuret/Knet.jl/blob/1ef934cc58f9671f2d85063f88a3d6959a49d088/deprecated/src7/op/actf.jl#L103
私は現在、いくつかのサイズの問題について質問していますが、正しく選択された回答にコメントとして追加した質問を参照してください。 – hockeybro