2016-12-03 4 views
1

dlibには、入力レイヤーから最も離れたレイヤーをどのように扱うかを決める損失レイヤーが必要です。私は損失の層のためのドキュメントを見つけることができませんが、それはちょうどいくつかの合計層を持つ方法がないようです。ニューラルネットワーク回帰にどのようにdlibを使用できますか?

最後の層のすべての値が(参照:https://deeplearning4j.org/linear-regression)にかかわらず、私は、回帰のために必要な正確に何だろう総括私はカスタム損失層を書くの線に沿って考えていたが、見つけることができませんでした

をこれに関する情報。

ここで、対応するレイヤーを見直したり、必要なものを用意する可能性はありますか?

答えて

2

dlibの損失層は、dlibのmachine learning pageのメニューにリストされています。 「損失層」という言葉を探します。多くの文書があります。

現在リリースされているdlibには、回帰喪失が含まれていません。しかし、githubから現在のコードを取得した場合は、新しいloss_mean_squaredレイヤーを使用して回帰を行うことができます。参照:https://github.com/davisking/dlib/blob/master/dlib/dnn/loss_abstract.h

関連する問題