coreml

    1

    2答えて

    この偉大な記事(http://machinethink.net/blog/coreml-custom-layers/)のおかげで、coremltoolsとLambdaを使ってKerasカスタムレイヤーを使って変換を書く方法を理解しました。 しかし、私は状況を理解することができません、2つのパラメータで機能します。 #python def scaling(x, scale): retur

    0

    1答えて

    let model = test2() var data = [1.0, 2.0,2.0,2.0,2.0,2.0,2.0] guard let mlMultiArray = try? MLMultiArray(shape:[1,7], dataType:MLMultiArrayDataType.double) else { fatalError("Unexp

    0

    1答えて

    iOS開発の新機能で、Xamarin.iOSアプリケーションにCoreMLを使用したいのですが、どのようにモデルを使用できますか? developer.xamarinのすべてのサンプルは.mlmodelcを使用していますが、.mlmodelをダウンロードしました。 .mlmodelcに変換するにはどうしたらいいですか?

    0

    1答えて

    生のピクセルデータを持つVNImageRequestHandlerを使用したいと思います。 VNImageRequestHandlerのメソッドinitWithData:options:は文書化されておらず、これを使用した例は見つかりません。受け入れられるフォーマットは何ですか?この「オプション」パラメータは何ですか? アップルのドキュメント(空の)ページ:https://developer.ap

    0

    1答えて

    私は最初の画像(サイズ変更されていない画像)を見る方法しか見つけられなかったので、この画像は私の.mlモデルの入力解像度に合わせてVisionのどこかで切り取られました。その切り取ったバージョン(私はカメラからこれらの画像をキャプチャ)をどのように見ることができますか? 私はこれをこの使用する:VNImageCropAndScaleOptionCenterCrop = 0(私はそれは問題ではないと

    1

    1答えて

    CoreMLを使用する画像認識アプリケーションを作成しました。そして、UIの面からは、私が画像を選んで、機能detect()の後に結果を表示した後、メインビューに戻りたいと思います。しかし、DispatchQueue.mainを使用しても、常に結果とメインビューが同時に表示されます。 detect()のうちDispatchQueue.mainを使用すると動作します。しかし、私はそれがそこにあるべき

    1

    1答えて

    Objective-CにAppleのCoreMLという非常に簡単な例を作成するのに問題があります。私はすでにかなり単純に機能するようになりましたpythonを使用してモデルファイルを作成しました: coreml_model_svm = coremltools.models.MLModel("svm.mlmodel") test_x = [1.0 for x in range(160)] pre

    1

    1答えて

    私はVision Frameworkを使用して画像内の顔を検出し、CoreMLモデルを使用して顔が笑っているかどうかを検出するプロジェクトに取り組んでいます。問題は、CoreMLモデルファイルが約500 MBであることです。私はそれほど私のアプリを膨らませたくない。 私はすでにビジョンの枠組みからVNFaceLandmarks2D観測データを取得していますので、私は私が笑顔を検出するためにそれを使

    1

    1答えて

    満足のいく結果を得たモデルを訓練したばかりで、frozen_inference_graph.pbを持っています。 iOSでこれを実行するにはどうすればいいですか?それはSSD Mobilenet V1で訓練されています。最適にはGPUを使って実行したいのですが(私はテンソルフローAPIがiOS上でそれを行うことはできませんが)、最初にCPU上に置くのは素晴らしいことです。