2017-10-25 10 views
0

私はAppleのCore MLを使用してイメージ内のアイテムを視覚的に認識していますが、時にはナイフなどの靴を識別している間違った答えを返します。CoreMLについてのフィードバックを提供し、画像内のアイテムを正しく識別するコアMLビジョンが正しくない回答を返す

+0

どのモデルをお使いですか?モデルに渡している画像が正しいかどうかチェックしましたか? – halileohalilei

答えて

0

私はフィードバックチケットを開けますhttps://developer.apple.com/bug-reporting/ Appleは本当にdevsのフィードバックを得ることがうれしいです。できるだけ深く細かくしてみてください:)

EDIT:別のCoreMLモデルを試してみることをお勧めします。私は、アプリケーションで魅力的に働くInception V3でいくつか試してみました。 https://developer.apple.com/machine-learning/

+0

これはバグですか?私はこれが4〜6週間以内に稼動している必要がありますが、残念ながらアップデートのために何年も待たなければならないことはありません! –

+0

@ C13バグであるかどうかだけを確認することができます。彼らはフィードバックにかなり速く応答します。私は別の提案でも私の答えを更新します –

+0

@ C13 - これはバグではありません、コアMLは、おそらく動作する可能性が高いです。どのような結果が得られているのかは、使用しているモデル、検出するために訓練されたもの、訓練された方法、イメージやビデオをどのようにしてそれに供給しているかです。 ImageNetに訓練された事前トレーニングされたモデルを使用している場合(あなたが自分の訓練を受けたようではないため、最も可能性が高いケースです)、訓練を受けたカテゴリを調べる必要があります。たとえば、データセットにはランニングシューズのみが含まれていて、ローファーを拾わない場合があります。最良の結果を得るには、自分のネットワークを自分のデータセットで訓練したいと思うでしょう。 –

関連する問題