私はiOS11のVision SDKに関連する通貨認識の問題を研究しています。 VNHomographicImageRegistrationRequest
の処理に問題があります。これは、2つの画像のコンテンツを整列させるのに必要な透視ワープマトリックスを決定します。しかし、私はこのAPIに2つの画像パラメータを送信する方法を見つけることができませんでした、誰も私を助けることができますか?誰もがios 11でvision api(VNHomographicImageRegistrationRequest)を使用する方法を試しましたか?
-1
A
答えて
1
Appleのビジョンの枠組みの流れは常に同じです:リクエスト - >ハンドラ - >観測
例:
// referenceAsset & asset2 can be:
// CGImage - CIImage - URL - Data - CVPixelBuffer
// Check initializers for more info
let request = VNHomographicImageRegistrationRequest(targetedCGImage: asset2, options: [:])
let handler = VNSequenceRequestHandler()
try! handler.perform([request], on: referenceAsset)
if let results = request.results as? [VNImageHomographicAlignmentObservation] {
print("Perspective warp found: \(results.count)")
results.forEach { observation in
// A matrix with 3 rows and 3 columns.
print(observation.warpTransform)
}
}
0
`` `
- (matrix_float3x3)predictWithVisionFromImage:(UIImage ) imageTarget toReferenceImage:(UIImage)imageRefer {
UIImage *scaledImageTarget = [imageTarget scaleToSize:CGSizeMake(224, 224)];
CVPixelBufferRef bufferTarget = [imageTarget pixelBufferFromCGImage:scaledImageTarget];
UIImage *scaledImageRefer = [imageRefer scaleToSize:CGSizeMake(224, 224)];
CVPixelBufferRef bufferRefer = [imageRefer pixelBufferFromCGImage:scaledImageRefer];
VNHomographicImageRegistrationRequest* request = [[VNHomographicImageRegistrationRequest alloc]initWithTargetedCVPixelBuffer:bufferTarget completionHandler:nil];
VNHomographicImageRegistrationRequest* imageRequest = (VNHomographicImageRegistrationRequest*)request;
VNImageRequestHandler* handler = [[VNImageRequestHandler alloc]initWithCVPixelBuffer:bufferRefer options:@{}];
[handler performRequests:@[imageRequest] error:nil];
NSArray* resultsArr = imageRequest.results;
VNImageHomographicAlignmentObservation* firstObservation = [resultsArr firstObject];
return firstObservation.warpTransform;
}
`` `
関連する問題
- 1. 誰もがストライプフレームワークを使用してスカラーを試しました
- 2. 誰もがFlaxを試しましたか?
- 3. Vision APIを使用したカスタムRectangleDetector
- 4. 誰でもSolaceを試しましたか? Solace - 多言語サポートプラットフォーム
- 5. 誰でもJavaFXとJRubyを試してみましたか?
- 6. Google Cloud Vision APIを使用した感情認識ですか?
- 7. 誰もがプロダクションでGoogle Speech APIを使用していますか?
- 8. Vision Framework iOS 11のバーコード検出
- 9. 誰かがGoogle App EngineでMongoDBを試しましたか?
- 10. 誰でもDBAmpを使用してSSISを使用する方法を教えてもらえますか
- 11. ng-grid headerRowTemplate - 誰でもこれを使用しましたか?
- 12. 誰もHerokuでPHPを使用しましたか?
- 13. 誰でも下記のOSM APIを使ってみました。
- 14. WmAutoUpdate - 誰でも使用しましたか?ロールバックしない
- 15. 誰かが完全なREST APIでswaggervelを使用しましたか?
- 16. PyCharmでGoogle Mobile Vision APIを使用できますか?
- 17. Google Cloud Vision APIの使用
- 18. 画像データを使用してGoogle Cloud Vision APIを習得できますか?
- 19. アンドロイドアプリケーションでMARY TTSエンジンを使用できますか?誰もこれを試みましたか?どこから始めるのがよいでしょうか?
- 20. iOS 11でHKWorkoutRouteQueryを使用する方法
- 21. 誰もDirectTrackアフィリエイトAPIを実装しましたか?
- 22. 誰かがGoogleの3Dグラフィックス用O3Dプラグインを試しましたか?
- 23. 誰でもiceを使用しました:selectOneMenu with f:ajax?
- 24. 誰もasp.net WebページでSage Payを使用しました
- 25. IntelliJ IDEAまたはAtom IDEでGoogle Mobile Vision APIを使用できますか?
- 26. iOS 11でインポートしたビデオストリームとセンサーデータでARKitを使用できますか
- 27. 誰かがスクリプトでスレッドを使用する方法を説明してもらえますか?
- 28. iOSでCloudmineをAPIとして使用する方法Swift
- 29. ネイティブIOS APIを使用したIOSファイルサイズ
- 30. 誰がJustin TV APIを使用していますか?
YES、必ずそれがあります。私は、次のようにobjective-Cバージョンを補足します –