私はデジタル形式のオリジナルページと同じページのいくつかのスキャンバージョンを持っています。私の目標は、スキャンされたページを、できるだけ元のページと一致するように傾きを補正することです。回転を固定するにはhereと記述されているようにProbabilistic Hough Transformを使うことができましたが、スキャンされた用紙のサイズも、ページを別の用紙形式に変更したときのサイズが異なります。 OpenCVのfindHomography()関数は、SIFT/SURFのキーポイントと組み合わせて、この問題を解決するために必要なものだと思います。しかし、私はdeskew()関数を働かせることができません。OpenCVとSIFT/SURFを使用してスキャンした画像を元の画像に合わせるために
私のコードのほとんどは、次の2つのソースに由来します: http://www.learnopencv.com/homography-examples-using-opencv-python-c/およびhttp://docs.opencv.org/3.1.0/d1/de0/tutorial_py_feature_homography.html。
import numpy as np
import cv2
from matplotlib import pyplot as plt
# FIXME: doesn't work
def deskew():
im_out = cv2.warpPerspective(img1, M, (img2.shape[1], img2.shape[0]))
plt.imshow(im_out, 'gray')
plt.show()
# resizing images to improve speed
factor = 0.4
img1 = cv2.resize(cv2.imread("image.png", 0), None, fx=factor, fy=factor, interpolation=cv2.INTER_CUBIC)
img2 = cv2.resize(cv2.imread("imageSkewed.png", 0), None, fx=factor, fy=factor, interpolation=cv2.INTER_CUBIC)
surf = cv2.xfeatures2d.SURF_create()
kp1, des1 = surf.detectAndCompute(img1, None)
kp2, des2 = surf.detectAndCompute(img2, None)
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
search_params = dict(checks=50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
matches = flann.knnMatch(des1, des2, k=2)
# store all the good matches as per Lowe's ratio test.
good = []
for m, n in matches:
if m.distance < 0.7 * n.distance:
good.append(m)
MIN_MATCH_COUNT = 10
if len(good) > MIN_MATCH_COUNT:
src_pts = np.float32([kp1[m.queryIdx].pt for m in good
]).reshape(-1, 1, 2)
dst_pts = np.float32([kp2[m.trainIdx].pt for m in good
]).reshape(-1, 1, 2)
M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)
matchesMask = mask.ravel().tolist()
h, w = img1.shape
pts = np.float32([[0, 0], [0, h - 1], [w - 1, h - 1], [w - 1, 0]]).reshape(-1, 1, 2)
dst = cv2.perspectiveTransform(pts, M)
deskew()
img2 = cv2.polylines(img2, [np.int32(dst)], True, 255, 3, cv2.LINE_AA)
else:
print("Not enough matches are found - %d/%d" % (len(good), MIN_MATCH_COUNT))
matchesMask = None
# show matching keypoints
draw_params = dict(matchColor=(0, 255, 0), # draw matches in green color
singlePointColor=None,
matchesMask=matchesMask, # draw only inliers
flags=2)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, good, None, **draw_params)
plt.imshow(img3, 'gray')
plt.show()
私は[こちら]似た何かをした(https://stackoverflow.com/questions/32435488/align-x-ray-images-find-rotation-rotate-and -crop/32441230#32441230)これは助けになるかもしれません。 –
@ MartinsEvansありがとう、それは似ていますが、私は必要なのは、歪んだ画像をできるだけ元の画像にできるだけ揃えることです。私はこの[Mathlabチュートリアル](https://ch.mathworks.com/help/vision/examples/find-image-rotation-and-scale-using-automated-feature-matching.html?requestedDomain=www.mathworks)を見つけました。 .com)は私の問題を正確に解決しますが、残念ながら私はステップ5を得ません。私のサンプルコードをどのようにして動作させるか知っていますか? –