coreml

    0

    3答えて

    KerasモデルをUbuntuのAppleのCoreMLに変換することは可能ですか? はOSXは、ページ内の0.4.0は間違いなくUbuntuの上で正常に動作coremltoolsでConverting Trained Models to Core ML

    1

    1答えて

    私は画像認識を行うiOSの新しいCoreMLフレームワークを使ってアプリケーションを作りたいと思っています。そうするためには、おそらく自分のモデルを訓練しなければならないでしょうし、データの量と計算に必要な電力量を正確に知りたいのです。それは、ソースデータにGoogleイメージを使用しているデュアルコアi5 Macbook Proで実現可能なことか、はるかに関与していますか?

    1

    1答えて

    今私はいくつかのデータの確率を検出するためにCoreMLモデルを使用しているアプリケーションに取り組んでいます。 しかし、私はXcodeプレイグラウンドでCoreMLモデルを使用することが可能であることを知りたいと思います。なぜなら、テスト目的の方がより便利になるからです。 Xcode 9の遊び場にモデルを追加しようとしましたが、運がありません。

    7

    3答えて

    Xcode 9 BetaでCoreMLとSwift 4.0を使用しています。 あなたは、プロジェクトナビゲータでファイルVGG16.mlmodelを選択した場合、私はエラーを取得する:またThere was an problem decoding this document CoreML 、コード内の結果として、私はUse of unresolved identifier 'VGG16'とUse

    1

    3答えて

    Pythonでは、入力を[224、224、3]配列として受け取り、予測(1または0)を出力するケラスを持つ画像分類モデルを訓練しました。モデルを保存してxcodeにロードすると、入力がMLMultiArray形式でなければならないことが示されます。 UIImageをMLMultiArray形式に変換する方法はありますか? CVPixelBuffer型オブジェクトを入力として受け入れるようにkera

    12

    1答えて

    AppleがCore MLを導入しました。訓練されたモデルを提供する多くの第三者がいます。 しかし、モデルを自分で作成したいのですが?どのようにすればいいのですか?&技術をどのように使用できますか?

    3

    1答えて

    私はCoreMLについて理解しています。スターターモデルの場合、私はYahoo's Open NSFWカフェモデルをダウンロードしました。あなたはそれにイメージを与え、それはあなたに不適当な内容を含む確率スコア(0と1の間)を与えます。 coremltoolsを使用して、モデルを.mlモデルに変換してアプリに持ってきました。それはそうのようにXcodeで表示されます:私のアプリで 、私は成功した画

    3

    1答えて

    Apple hereで説明されているように、Places205-GoogLeNetからCore MLモデルを作成しようとしています。 私はAppleが既製のモデルを使用したくないので、私は、このリンクから、オリジナルモデルだ: https://developer.apple.com/machine-learning/model-details/Places205-GoogLeNet.txt App

    4

    2答えて

    はVNClassificationObservationからの取得に問題があります。 オブジェクトを認識してポップアップにオブジェクト名を表示する私の目標IDは、名前を取得できますが、オブジェクトの座標またはフレームを取得できません。 let handler = VNImageRequestHandler(cvPixelBuffer: pixelBuffer, options: requestOp

    0

    1答えて

    CoreMLをテストするための小さなサンプルプログラムを作成しました。基本的な考え方は、例えばVGG16とResnet50のようないくつかのモデルの結果を組み合わせることです。 私はこのエラーを取得しています私のプロジェクトをコンパイルしよう: 1つのプロジェクト内の2つ以上のモデルファイルを使用することが可能ですか? mlmodelファイルの1つを削除すると、コンパイルされます。