2017-12-04 2 views
0

MxNetを使用してディープコンボルーションニューラルネットワークをトレーニングする場合、オーバーフィットを減らすためにドロップアウトの量を最も簡単にする方法は何ですか?手動でネットワークアーキテクチャにドロップアウトを実装せずにドロップアウトレートを追加する方法はありますか?MxNetを使用してニューラルネットワークをトレーニングする際に、いくつかのドロップアウトを設定するにはどうすればよいですか?

答えて

1

はい、ドロップアウトレートを設定できます。 ドロップアウト層のAPIがここにあります:https://mxnet.incubator.apache.org/api/python/symbol/symbol.html?highlight=dropout#mxnet.symbol.DropoutPは中退率である

+0

お返事ありがとうございます。そのAPIも検索中に見つかりました。しかし、私がResnetやInceptionV3のようなネットワークを実装している場合、どのように使うべきか、私には分かりません。例を追加できますか? –

+2

他のレイヤーをネットワークに追加するのと同じです: 'conv1 = mx.sym.Convolution(data = act1、num_filter = int(num_filter * 0.25)、kernel =(1,1)...) dropout1 = symbol.Dropout(conv1、p = 0.2) ' – Guy

関連する問題