特定のオブジェクトを記述する100個のトレーニング画像からN個のSIFT/SURF特徴が抽出され、新しい画像Aから抽出されたM個のSIFT /そのオブジェクト(他のオブジェクトと同様に気にしないオブジェクト)は、イメージAがそのオブジェクトを表しているかどうかをどのように判断しますか?SIFT/SURF機能を使用して画像内のオブジェクトを検出する
私が知っている唯一の方法は、トレーニングフィーチャをクラスタ化し、各トレーニングイメージのヒストグラムを生成し、次にこれらのヒストグラムで分類器(たとえばSVM)を訓練することです。次に、フィーチャを抽出し、ヒストグラムを計算し、訓練されたクラシファイアを使用してヒストグラムを分類することによって、イメージAのオブジェクトをテストします。
このアプローチの主な問題は、イメージAにはオブジェクトのみが含まれていると仮定し、それ以外は何もない、またはオブジェクトが含まれていないと仮定します。言い換えれば、オブジェクトが人物であり、その人物の画像で訓練されている場合、得られたヒストグラムが他のすべてのフィーチャで汚染されるため、群衆に立っている人物を検出することができない群衆の中の人々。
これを達成する他の方法は何ですか?