1

私が見たWhat's the triplet loss back propagation gradient formula? グラデーションの場合、アンカーはn-p、ポジティブはp-a、ネガティブはa-nです。
しかし、これは80行から92行のtripletLossLayerです。
つまり、グラデーションアンカーの場合はp - n、正の場合はp - aです。 本当に正しいですか?実際の損失の計算およびNOT勾配の計算である - 80-92 triplet_loss_layer.cpp右トリプルロス逆伝播式はどれですか?

答えて

0

線はforward_cpu機能の一部です。

グラジエントはbackward_cpuで計算されます。bottomにはそれぞれdiffが割り当てられています(here)。

+1

ご協力いただきありがとうございます。 顔の確認のためにトリプルトローズレイヤーをトレーニングしています。 このレイヤーを使用してGoogleNetまたはVggNetのパフォーマンスが向上しましたが、そうではありません。 私はあなたの助けが必要です –