-1
以下のようなコードを記述しますが、これらの完全に接続されたレイヤーが同じ変数を共有するかどうかはわかりません。Tensorflow unreused変数スコープ
with tf.variable_scope("loss"):
_loss= tf.map_fn(lambda x: tf.contrib.layers.fully_connected(x, output_size), x_list)
以下のようなコードを記述しますが、これらの完全に接続されたレイヤーが同じ変数を共有するかどうかはわかりません。Tensorflow unreused変数スコープ
with tf.variable_scope("loss"):
_loss= tf.map_fn(lambda x: tf.contrib.layers.fully_connected(x, output_size), x_list)
これらの完全に接続された層は、同じ変数を共有するかどうか?
tf.map_fn
opは、pythonネイティブのmap
関数と同様に動作します。したがって、リストのすべての要素は、完全に接続されたレイヤの同じパラメータ(共有パラメータ)に公開されます。
次に、パラメータが異なる必要がある場合、どうすればよいですか? – Linsir
はまず入力を分割し、次に異なる 'fc'レイヤーを適用します –