2016-05-21 14 views
2

私は現在、古いOpenCVの例からPythonのOpenCV3にPyObjCとQuartzモジュールを使ってコードを転送中です。 Objective-CコードはUIImageを取り、OpenCVで使用できる素材を作成します。私のpythonコードはCGImageを取り、同じことをします。ここでcv.mat.step [0]のNumpy相当物を理解できません

は、Objective-Cのコードである:ここで

(cv::Mat)cvMatFromUIImage:(UIImage *)image { 
    CGColorSpaceRef colorSpace = CGImageGetColorSpace(image.CGImage); 
    CGFloat cols = image.size.width; 
    CGFloat rows = image.size.height; 

    cv::Mat cvMat(rows, cols, CV_8UC4); // 8 bits per component, 4 channels (color channels + alpha) 

    CGContextRef contextRef = CGBitmapContextCreate(cvMat.data,     // Pointer to data 
               cols,      // Width of bitmap 
               rows,      // Height of bitmap 
               8,       // Bits per component 
               cvMat.step[0],    // Bytes per row 
               colorSpace,     // Colorspace 
               kCGImageAlphaNoneSkipLast | 
               kCGBitmapByteOrderDefault); // Bitmap info flags 

    CGContextDrawImage(contextRef, CGRectMake(0, 0, cols, rows), image.CGImage); 
    CGContextRelease(contextRef); 

    return cvMat; 
} 

は私のPythonのと同等です:

def macToOpenCV(image): 
    color_space = CGImageGetColorSpace(image) 
    column = CGImageGetHeight(image) 
    row = CGImageGetWidth(image) 
    mat = np.ndarray(shape=(row, column, 4), dtype=np.uint8) 
    c_ref = CGBitmapContextCreate(mat, 
            row, 
            column, 
            8, 
            , # mat.step[0], 
            color_space, 
            kCGImageAlphaNoneSkipLast | 
            kCGBitmapByteOrderDefault) 

    CGContextDrawImage(c_ref, CGRectMake(0, 0, column, row), image) 
    return mat 

私は右現在、これのほとんどを持っていることをかなり確信していますが、私は何を失っていますNumpyのcvMat.step [0]に相当するものを呼び出す必要があります。また、私がcv2.imshow()を使用するときに、私が期待しているイメージを得ることができないため、コードセグメントに関する一般的なコードレビューを歓迎します。

ありがとうございます!

答えて

1

私は上記のアプローチを放棄終わったと編集の少し後に働いていた、このスタックオーバーフローの質問に答えた:この場合にはConverting CGImage to python image (pil/opencv)

image_ref = CGWindowListCreateImage(CGRectNull, 
             kCGWindowListOptionIncludingWindow, 
             wid, 
             kCGWindowImageBoundsIgnoreFraming) 

pixeldata = CGDataProviderCopyData(CGImageGetDataProvider(image_ref)) 

height = CGImageGetHeight(image_ref) 
width = CGImageGetWidth(image_ref) 

image = Image.frombuffer("RGBA", (width, height), 
         pixeldata, "raw", "RGBA", 0, 1) 

# Color correction from BGRA to RGBA 
b, g, r, a = image.split() 
image = Image.merge("RGBA", (r, g, b, a)) 
np.array(image) 
return np.array(image) 

イメージPIL.Imageです。また、私が自動的にストライド計算(frombuffer()のパラメータ0)を選択したのがわかりました。なぜなら、答えが私が働くことができなかったからです。