2017-05-22 14 views
1

私はワトソンAPIキーを視覚的に認識精通しています:私のAPIキーなどのparamとワトソンビジュアル認識API

visual_recognition = VisualRecognitionV3('2016-05-20', api_key=param) 

このApi Callはフォームを認識するのに便利です。しかし、認識されている要素の位置を得ることは可能ですか?私はAPIのドキュメントには表示されません。私はこれが顔の検出には可能だと考えていますが、私は私の絵に犬がいます、私はこの犬の姿勢をどのようにすることができますか?

Hereサービスは分類のコレクションを使用することによって動作し、各分類器は、単一のタグで、正と負の画像のそれ自身のセットを用いて訓練しなければならないAPIリファレンス

+1

Watson APIでは不可能です。 –

+0

@ Tomasz Plaskota:それはロードマップの下にあるものですか? – MouIdri

答えて

3

です。複数のエンティティを含む1つの画像から小さなサブ画像を作成してみてください。

videoを参照して動作を確認してください。

Fork on Github。

+0

私はあなたの応答をupvoteし、答えとして私の質問をマークします。しかし、私はこれを行うPythonの方法(ノードではない)を持っていると思います。 – MouIdri

+1

ここに、[Python](https://www.ibm.com/blogs/watson/2016/09/power-visual-recognition-use-watson-identify-hand-cards/)で使用するいくつかの例があります。あなたが望むことをやり遂げる方法を持っているので、論理は同じです。他のプログラミング言語と同じことをやっただけです。 –

+0

ありがとうございます。私は既に視覚的なrecとpythonのいくつかの高度な使い方をしています。私は本当にpython言語を使って位置のローカライゼーションが必要でした。私は一見を持っています。 – MouIdri