私はCoreML(Appleの機械学習ライブラリ)を使い始めようとしています。私は、これらのチュートリアルはVNCoreMLModelとInceptionv3.model()の違いは?
1)https://www.appcoda.com/coreml-introduction/
2)https://www.raywenderlich.com/164213/coreml-and-vision-machine-learning-in-ios-11-tutorial
最初のチュートリアルでは、インセプションV3使用し、第二のチュートリアルは、説明のためのPlaces205-GoogLeNetモデルを使用し始めるために、次のです。
すべての基本的な設定までの手順
後Places205-GoogLeNetチュートリアルでは、以下のコード
func detectScene(image: CIImage) {
answerLabel.text = "detecting scene..."
// Load the ML model through its generated class
guard let model = try? VNCoreMLModel(for: GoogLeNetPlaces().model) else {
fatalError("can't load Places ML model")
}
}
を使用し、第二のコードは、この
guard let prediction = try? model.prediction(image: pixelBuffer!) else {
return
}
これらの違いは何ですかを使用しています2つのアプローチがあります。どちらのタイプを使うと、ピクセルバッファを渡して結果を表示することができますか?
コアMLとビジョンフレームワークの間のAPIが互いにどのように関連しているのかについての記事[ここ](http://deepdojo.com/mlmodel-api)があります。 – otto