私は現在、古いOpenCVの例からPythonのOpenCV3にPyObjCとQuartzモジュールを使ってコードを転送中です。 Objective-CコードはUIImageを取り、OpenCVで使用できる素材を作成します。私のpythonコードはCGImageを取り、同じことをします。ここでcv.mat.step [0]のNumpy相当物を理解できません
は、Objective-Cのコードである:ここで
(cv::Mat)cvMatFromUIImage:(UIImage *)image {
CGColorSpaceRef colorSpace = CGImageGetColorSpace(image.CGImage);
CGFloat cols = image.size.width;
CGFloat rows = image.size.height;
cv::Mat cvMat(rows, cols, CV_8UC4); // 8 bits per component, 4 channels (color channels + alpha)
CGContextRef contextRef = CGBitmapContextCreate(cvMat.data, // Pointer to data
cols, // Width of bitmap
rows, // Height of bitmap
8, // Bits per component
cvMat.step[0], // Bytes per row
colorSpace, // Colorspace
kCGImageAlphaNoneSkipLast |
kCGBitmapByteOrderDefault); // Bitmap info flags
CGContextDrawImage(contextRef, CGRectMake(0, 0, cols, rows), image.CGImage);
CGContextRelease(contextRef);
return cvMat;
}
は私のPythonのと同等です:
def macToOpenCV(image):
color_space = CGImageGetColorSpace(image)
column = CGImageGetHeight(image)
row = CGImageGetWidth(image)
mat = np.ndarray(shape=(row, column, 4), dtype=np.uint8)
c_ref = CGBitmapContextCreate(mat,
row,
column,
8,
, # mat.step[0],
color_space,
kCGImageAlphaNoneSkipLast |
kCGBitmapByteOrderDefault)
CGContextDrawImage(c_ref, CGRectMake(0, 0, column, row), image)
return mat
私は右現在、これのほとんどを持っていることをかなり確信していますが、私は何を失っていますNumpyのcvMat.step [0]に相当するものを呼び出す必要があります。また、私がcv2.imshow()を使用するときに、私が期待しているイメージを得ることができないため、コードセグメントに関する一般的なコードレビューを歓迎します。
ありがとうございます!