Facenetは顔認識の深い学習モデルです。フィーチャを抽出するために、すなわち埋め込みと呼ばれる固定長ベクトルによってイメージを表現するために訓練される。訓練の後、与えられた各画像について、2番目の最後の層の出力をその特徴ベクトルとしてとる。その後、特徴およびある距離関数(例えば、ユークリッド距離)に基づいて、(2つの画像が同じ人であるかどうかを確認する)検証を行うことができる。Facenet:顔埋め込みセットのアンサンブルの使用
三重項損失は、基本的に同じ人物の特徴ベクトル間の距離が小さく、異なる人間の距離が大きくなければならないという損失関数です。
私の質問は、異なる畳み込みモデルの異なる埋め込みセットを混在させる方法はありますか?たとえば、3つの異なるモデル(Resnetモデル、Inception、およびVGG)をトリプレット損失でトレーニングし、3つの128次元埋め込みをミックスして新しいメタ埋め込みを構築し、より良い顔検証精度を実現します。この埋め込みセットをどのように混在させることができますか?