dlib
には、入力レイヤーから最も離れたレイヤーをどのように扱うかを決める損失レイヤーが必要です。私は損失の層のためのドキュメントを見つけることができませんが、それはちょうどいくつかの合計層を持つ方法がないようです。ニューラルネットワーク回帰にどのようにdlibを使用できますか?
最後の層のすべての値が(参照:https://deeplearning4j.org/linear-regression)にかかわらず、私は、回帰のために必要な正確に何だろう総括私はカスタム損失層を書くの線に沿って考えていたが、見つけることができませんでした
をこれに関する情報。
ここで、対応するレイヤーを見直したり、必要なものを用意する可能性はありますか?