fully_connectedに記載されているテンソルフロー関数には、最後のレイヤーにドロップアウトを追加するパラメータはありません。方法はありますか?TF関数fully_connectedを使用して、完全に接続されたレイヤーにドロップアウトを追加する方法はありますか?
-2
A
答えて
1
を、私はこの方法でこれを実行します。
をh_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
3
それともtf.contrib.layers.fully_connected
を使用したい場合は、このような何か行うことができますチュートリアルDeep MNIST for Expertsとmnist_deep.py
# Fully connected layer 1 -- after 2 round of downsampling, our 28x28 image
# is down to 7x7x64 feature maps -- maps this to 1024 features.
with tf.name_scope('fc1'):
W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# Dropout - controls the complexity of the model, prevents co-adaptation of
# features.
with tf.name_scope('dropout'):
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
# Map the 1024 features to 10 classes, one for each digit
with tf.name_scope('fc2'):
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
のソースコードを見てください:
h_pool2_flatten = tf.contrib.layers.flatten.flatten(h_pool2)
h_fc1 = tf.contrib.layers.fully_connected(h_pool2_flatten, 1024, scope='fc1')
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.contrib.layers.dropout(h_fc1, keep_prob)
y_conv = tf.contrib.layers.fully_connected(h_fc1_drop, 10, activation_fn=None, scope='fc2')
関連する問題
- 1. 畳み込みネットワーク:完全に接続されたレイヤーのドロップアウト
- 2. トランケートされたSVDを使用して完全に接続された( "" InnerProduct "")レイヤーを減らす方法
- 3. ドロップアウトを挿入する必要があります。完全に接続されたレイヤー。畳み込みレイヤ。または両方。?
- 4. Tensorflowを使用して畳み込みネットワークで完全に接続されたレイヤーの後に回帰ヘッドを追加する方法は?
- 5. 完全に接続されたレイヤーが正しくないフィード
- 6. 完全に接続されたフィードフォワードニューラルネットワークXOR関数を教える
- 7. Javaで完全に接続されたレイヤー、Tensorflow
- 8. TensorFlowでチャネルごとに完全に接続されたレイヤーを適用する方法
- 9. tf slimまたはtfレイヤーで要約を使用する
- 10. fc3と呼ばれる完全に接続されたレイヤーは20x125のウェイトを持っています
- 11. 畳み込みニューラルネットワークで完全に接続されたレイヤーのデフォルトの出力形状を変更する方法はありますか?
- 12. CNNの畳み込みレイヤーから完全に接続されたレイヤーへの入力の寸法
- 13. Caffeで完全に接続されたレイヤーをトレーニングするときに学習していないネットワーク
- 14. なぜslim.nets.vggは完全接続されたレイヤの代わりにconv2dを使用しますか?
- 15. PyCaffeを使用して完全に接続された多層パーセプトロン
- 16. 完全に完全なHTMLが生成されたページをJavaでロードする方法はありますか?
- 17. 画像検索タスクのためにモデルの完全に接続されたレイヤーのサイズを小さくする
- 18. Webkit固有のスタイルをレイヤーに追加する方法はありますか?
- 19. `read`関数に代わる完全な方法はありますか?
- 20. 完全に接続された層の重量寸法は
- 21. PyTorchで完全に接続されたバッチノルムを行うには?
- 22. トランジションGraphMachineは完全に接続されたグラフを生成します
- 23. 接続された方法で接続ノードネットワークをトラバースする方法はありますか?
- 24. インデックスマップを使用してエレメントを追加するベクター化された方法はありますか?
- 25. tiny-dnnでレイヤーを複数の出力レイヤーに接続する方法は?
- 26. Webアプリケーションコードを完全に隠す方法はありますか?
- 27. 完全なモデルのために@ Html.HiddenForを使う方法はありますか?
- 28. Entity Frameworkを使用してOracleに接続するときに接続文字列を使用してスキーマを変更する方法はありますか。
- 29. 引数 `vc`はコマンド` tf`に何を追加しますか?
- 30. USB接続を使用しないでAndroid Device Monitorに接続する方法はありますか
あなたの問題を詳細に説明してもよろしいですか?通常、最後のレイヤーはクラスや値を予測するレイヤーです。ここでdrop_outを使用して何を達成したいのですか。 –
@VivekKumarの人々はすでに正しく答えています。なぜまだ-2? –