iOSで最近導入されたCore MLを試して、画像を認識して分類しました。問題は、送信された画像に適切な結果を与えていないことです。コアML iOS 11で画像が正しく認識されない
地球の画像(グローブ)を送ると、クラスが私に泡として与えられます。以下は、私が使用したコード、
let model = Resnet50()
let pixelBuffer: CVPixelBuffer = (modelImg.pixelBuffer())!
if let prediction = try? model.prediction(image: pixelBuffer) {
print("Found it!! It is a/an \(prediction.classLabel)")
}
が、それは、既存のコアMLモデルの上にカスタムユースケースでモデルを訓練することは可能ですがありますか?(例について。Resnet50)MLにのみ使用することができ
さらに、受け入れられた答えに加えて、心に留めておくべきもう1つのことがあります.CoreMLでは、訓練されたモデルはアプリのアップデートなしでは更新できません。私はCoreML *が何ではないかについてのブログへのリンクを失ってしまいましたが、CoreMLツールを使ってこのレポのREADMEを入手するのに良いリソースを見つけました:https://github.com/hollance/YOLO-CoreML-MPSNNGraph/ blob/master/README.markdown – dfd