2

Facenetは顔認識の深い学習モデルです。フィーチャを抽出するために、すなわち埋め込みと呼ばれる固定長ベクトルによってイメージを表現するために訓練される。訓練の後、与えられた各画像について、2番目の最後の層の出力をその特徴ベクトルとしてとる。その後、特徴およびある距離関数(例えば、ユークリッド距離)に基づいて、(2つの画像が同じ人であるかどうかを確認する)検証を行うことができる。Facenet:顔埋め込みセットのアンサンブルの使用

三重項損失は、基本的に同じ人物の特徴ベクトル間の距離が小さく、異なる人間の距離が大きくなければならないという損失関数です。

私の質問は、異なる畳み込みモデルの異なる埋め込みセットを混在させる方法はありますか?たとえば、3つの異なるモデル(Resnetモデル、Inception、およびVGG)をトリプレット損失でトレーニングし、3つの128次元埋め込みをミックスして新しいメタ埋め込みを構築し、より良い顔検証精度を実現します。この埋め込みセットをどのように混在させることができますか?

答えて

0

同じ質問と有益な回答hereがあります。私は、各モデルが 等しく寄与するように、各 埋め込みを正規化し、それらを連結) 2つの埋め込みを連結し、その2後にPCAを適用)実施例1のために、これを行うためのさまざまな方法があるだと思う

最終結果に3)各埋め込みの各フィーチャをガウスのCDFによって(0,1)に正規化し、 を一緒に連結して、各フィーチャが結果に等しく寄与するようにします。

関連する問題