Anyline、microblink、または他のSDKを使用したライブビデオではなく、画像(たとえばアセット)でOCRを実行できますか?OCR on image - iOS
私の限られた時間のためにTesseractはオプションではありません。
私はテストしましたが、結果は非常に不適切です。私はOpenCvなどで改善できることを知っていますが、締め切りを守る必要があります。
EDIT:
これは、画像は、それがOCR SDKに到着したときにどのように見えるかの例です。
Anyline、microblink、または他のSDKを使用したライブビデオではなく、画像(たとえばアセット)でOCRを実行できますか?OCR on image - iOS
私の限られた時間のためにTesseractはオプションではありません。
私はテストしましたが、結果は非常に不適切です。私はOpenCvなどで改善できることを知っていますが、締め切りを守る必要があります。
EDIT:
これは、画像は、それがOCR SDKに到着したときにどのように見えるかの例です。
他にはわかりませんが、microblink SDKを使用して1つの画像から読み取ることができます。それはhereと記載されています。
ビデオストリームから読み上げる方がはるかに良い結果が得られますが、それは正確に何をしようとしているかによって異なります。あなたは何を読もうとしていますか?
アイデンティティ文書からバーコードまたはMRZを読み取る場合、これはかなりうまく機能します。原文のOCRの場合、それほど良いものではありませんが、とにかくそれを意図したものではありません。異なるフォント、文字などの訓練可能
https://github.com/garnele007/SwiftOCR 機械学習ベースは、 と自由
私はすでにそれをテストしましたが、私はいつもEXC_BAD_ACCESを持っています – kemkriszt
おかげで、私は少し後のドキュメントを見てするつもりです。私は人を識別するためにランダムな個人コードを読むことを試みています。しかしまず、画像を処理してそのバッジを見つけ出し、その周りの画像をトリミングし、追跡を後で行います。 – kemkriszt
だから、私はドキュメントを読んで、私はそれが私が探しているものだと思う。しかし、私は問題があります。私が* coordinator.processImageを呼び出した後*私は全く結果を得ません。 * didStartRecognition *、* didStartDetection *、* didFinishRecognition *メソッドは呼び出されましたが、* didObtainResult *メソッドは呼び出されませんでした。私は私の質問にサンプル画像を添付しました。 – kemkriszt
問題が見つかりました。ドキュメントは少し古く、私はいくつかのクラスは存在しません。しかし、このサンプルプロジェクトでは解決策が見つかりました。ありがとう:) – kemkriszt