私は私が遊んでいるアイデアを少し援助しています。私はマッチを使用していた私は私の問題の約OpenCV Python機能の検出例の拡張子
特にを話しているものです
See sample image at bottom of page here 上の例のようなコード最終節/例で画像に位置機能を利用したいです一見単純に加えられたようにシーン画像内のターゲットを見つけるために画像内に示されている。私は、シーンのフレームではなく、単に機能の周りにバウンディングボックスを置くよりも
に位置する場合、ターゲットの周りにバウンディングボックスを描画したい、私はむしろ表す4つの輪郭点のリストを持っているでしょうそれが理にかなっているならば、シーンフレーム上の変換されたターゲット。
大きな画像、私はターゲットを含むシーン画像のサブセクションを撮り、それをシーン画像からトリミングし、残りの画像から非ターゲットエリアをマスクして、これをさらにソースとして使用したいプロセス。
この時点で、私は目標イメージのコーナーを回転させてシーンイメージに変換して表示するために、ハードコーディングされたポイントセットを使用してすべてを行いました。そのシーンのターゲットの各コーナーのx、y座標を決定する
私はそのコードをちょっとしたものとして掲示したくありませんでした。それは私のためにしてください 'を修正してください
私は非常に感謝しているだろう、どのようにこれを行うには、サンプルコードを使用して私を示すことができる場合は、乾杯。
import numpy as np
import cv2
from matplotlib import pyplot as plt
img1 = cv2.imread('box.png',0) # queryImage
img2 = cv2.imread('box_in_scene.png',0) # trainImage
# Initiate SIFT detector
sift = cv2.SIFT()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
# FLANN parameters
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50) # or pass empty dictionary
flann = cv2.FlannBasedMatcher(index_params,search_params)
matches = flann.knnMatch(des1,des2,k=2)
# Need to draw only good matches, so create a mask
matchesMask = [[0,0] for i in xrange(len(matches))]
# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
if m.distance < 0.7*n.distance:
matchesMask[i]=[1,0]
draw_params = dict(matchColor = (0,255,0),
singlePointColor = (255,0,0),
matchesMask = matchesMask,
flags = 0)
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,matches,None,**draw_params)
plt.imshow(img3,),plt.show()
、どうもありがとうございました。私は仕事の後に遊びをして、私が必要とすることができるかどうかを確認するために、週に試してみます。 – SMBee