1
私が見たWhat's the triplet loss back propagation gradient formula? グラデーションの場合、アンカーはn-p
、ポジティブはp-a
、ネガティブはa-n
です。
しかし、これは80行から92行のtripletLossLayer
です。
つまり、グラデーションアンカーの場合はp - n
、正の場合はp - a
です。 本当に正しいですか?実際の損失の計算およびNOT勾配の計算である - 80-92 triplet_loss_layer.cpp
で右トリプルロス逆伝播式はどれですか?
ご協力いただきありがとうございます。 顔の確認のためにトリプルトローズレイヤーをトレーニングしています。 このレイヤーを使用してGoogleNetまたはVggNetのパフォーマンスが向上しましたが、そうではありません。 私はあなたの助けが必要です –