2016-09-03 7 views
1

私は私が遊んでいるアイデアを少し援助しています。私はマッチを使用していた私は私の問題の約OpenCV Python機能の検出例の拡張子

特にを話しているものです

See sample image at bottom of page here 上の例のようなコード最終節/例で画像に位置機能を利用したいです一見単純に加えられたようにシーン画像内のターゲットを見つけるために画像内に示されている。私は、シーンのフレームではなく、単に機能の周りにバウンディングボックスを置くよりも

Example of output I'm after

に位置する場合、ターゲットの周りにバウンディングボックスを描画したい、私はむしろ表す4つの輪郭点のリストを持っているでしょうそれが理にかなっているならば、シーンフレーム上の変換されたターゲット。

大きな画像、私はターゲットを含むシーン画像のサブセクションを撮り、それをシーン画像からトリミングし、残りの画像から非ターゲットエリアをマスクして、これをさらにソースとして使用したいプロセス。

この時点で、私は目標イメージのコーナーを回転させてシーンイメージに変換して表示するために、ハードコーディングされたポイントセットを使用してすべてを行いました。そのシーンのターゲットの各コーナーのx、y座標を決定する

私はそのコードをちょっとしたものとして掲示したくありませんでした。それは私のためにしてください 'を修正してください

私は非常に感謝しているだろう、どのようにこれを行うには、サンプルコードを使用して私を示すことができる場合は、乾杯。

import numpy as np 
import cv2 
from matplotlib import pyplot as plt 

img1 = cv2.imread('box.png',0)   # queryImage 
img2 = cv2.imread('box_in_scene.png',0) # trainImage 

# Initiate SIFT detector 
sift = cv2.SIFT() 

# find the keypoints and descriptors with SIFT 
kp1, des1 = sift.detectAndCompute(img1,None) 
kp2, des2 = sift.detectAndCompute(img2,None) 

# FLANN parameters 
FLANN_INDEX_KDTREE = 0 
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5) 
search_params = dict(checks=50) # or pass empty dictionary 

flann = cv2.FlannBasedMatcher(index_params,search_params) 

matches = flann.knnMatch(des1,des2,k=2) 

# Need to draw only good matches, so create a mask 
matchesMask = [[0,0] for i in xrange(len(matches))] 

# ratio test as per Lowe's paper 
for i,(m,n) in enumerate(matches): 
    if m.distance < 0.7*n.distance: 
     matchesMask[i]=[1,0] 

draw_params = dict(matchColor = (0,255,0), 
        singlePointColor = (255,0,0), 
        matchesMask = matchesMask, 
        flags = 0) 

img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,matches,None,**draw_params) 

plt.imshow(img3,),plt.show() 

答えて

0

2つの画像の間の規範的な変換を見つける必要があります。

一致するフィーチャに従って対応する座標のセットを作成します。

たとえば、イメージ1のフィーチャFtI1はイメージ2のFtJ1に対応するため、FtI1(xi、yi)の座標はFtJ1(xj、yj)の座標に対応し、すべての対応する機能。 2つのイメージの間に対応する座標のリストがあると、opecv getPerspectiveTransformを使用して規範変換を計算できます。

最後に、第1の画像内の囲み形状の4座標にある変換を使用して、第2の画像内の囲み形状の座標を取得します。そのためのopencv関数はwarpPerspectiveです。

opecv中であることを行う方法の例

:優秀な答えはあり http://docs.opencv.org/3.1.0/da/d6e/tutorial_py_geometric_transformations.html

+0

、どうもありがとうございました。私は仕事の後に遊びをして、私が必要とすることができるかどうかを確認するために、週に試してみます。 – SMBee