coreml

    3

    2答えて

    @objc func launchCoreML() { let settings = AVCapturePhotoSettings() let previewPixelType = settings.availablePreviewPhotoPixelFormatTypes.first let previewFormat = [ kCVPixelBuffe

    -1

    2答えて

    私はiOS11のVision SDKに関連する通貨認識の問題を研究しています。 VNHomographicImageRegistrationRequestの処理に問題があります。これは、2つの画像のコンテンツを整列させるのに必要な透視ワープマトリックスを決定します。しかし、私はこのAPIに2つの画像パラメータを送信する方法を見つけることができませんでした、誰も私を助けることができますか?

    0

    1答えて

    Tensorflowを使用して訓練された画像を認識しようとしています。私はこれに続いてsteps と私は自分のデータセットを訓練するために成功し、その良い予測結果を与える。すべてのコードはPythonで書かれています。今私はiOSプロジェクトでこの訓練されたモデルを使用しようとしています。私はこのtutorialに従って、自分のiOSプロジェクトで訓練されたモデルを使用しています。しかし、私はこれ

    0

    1答えて

    私はMachine-Visionプロジェクトを客観的なC言語で作成しました。それを完成させるために、私のマシンMy_model.mlmodelを最新のcoreMLライブラリでインポートする必要があります。 (切り捨てMy_model.mlmodelはPythonのcoremltoolsで作成されました) 私はそれをインスタンス化しようとしていますが、何も動かないので、このチュートリアルやチュートリ

    0

    1答えて

    Keras OCR exampleをCoreMLモデルに変換しようとしています。 私はすでに少し修正されたモデルをトレーニングすることができ、すべてがPythonでうまく見えます。しかし今、私はモデルをCoreMLに変換して、それをiOSアプリケーションとして使用したいと思っています。 問題は、CoreMLファイル形式がラムダレイヤをサポートできないことです。 私はこの分野の専門家ではありませんが

    1

    1答えて

    私はKerasモデルをCoreMLに変換しました。私は、CoreMLがすべてのテクスチャに対してフルフロートではなくハーフフロートを使用していることを確認したいと思います。これどうやってするの? 更新日: ネットワークの出力がハーフフロートか、少なくともフロート(または他のタイプ)で、ダブルではないことを確認するにはどうすればよいですか?

    1

    2答えて

    AppleにはiOS 11の新機能があり、ビジョンフレームワークを使用してモデルなしでオブジェクト検出を行うことができます。私はこれらの新しいAPIを試してみましたが、がVNDetectRectanglesRequestの結果が良くないことが分かりました。 APIを正しく使用していますか?ここで は、いくつかの良いケースです: そして、いくつかの悪い場合:ここで 私のコードです: func cap

    2

    2答えて

    私は最近、iOS開発者用の機械学習リリースを自分のアプリケーションに組み込むことを検討しています。 ML関連のものを初めて使用したのはこれが初めてなので、Appleが提供しているさまざまなモデルの説明を読み始めたとき、私は非常に迷っていました。彼らは同じ目的/記述を持っていますが、唯一の違いは実際のファイルサイズです。これらのモデルの違いは何ですか?また、どのモデルが最適であるかはどのように分かり

    0

    2答えて

    私はlinkからダウンロードしたデータセットを持っています。 私は約coremltoolを知っています(Appleで作成)。 質問です:へ はそれが可能であるがCoreMLにスタンフォードdatasetを変換しますか? はいの場合 - 誰かが私にの指示を与えることができます? ありがとうございます!