私は、Python
(https://googlecloudplatform.github.io/google-cloud-python/stable/vision-usage.html)google-cloud-pythonのビジョンAPIが複数の注釈を返す理由
でGoogleクラウドビジョンAPIで働いていますが、単一の画像の注釈結果がlist
annotation
のSから成り、なぜ私は理解できませんでした。
documentは言う:
>>> from google.cloud import vision
>>> from google.cloud.vision.feature import Feature
>>> from google.cloud.vision.feature import FeatureTypes
>>> client = vision.Client()
>>> image = client.image(source_uri='gs://my-test-bucket/image.jpg')
>>> features = [Feature(FeatureTypes.FACE_DETECTION, 5),
... Feature(FeatureTypes.LOGO_DETECTION, 3)]
>>> annotations = image.detect(features)
>>> len(annotations)
2
>>> for face in annotations[0].faces:
... print(face.joy)
Likelihood.VERY_LIKELY
Likelihood.VERY_LIKELY
Likelihood.VERY_LIKELY
>>> for logo in annotations[0].logos:
... print(logo.description)
'google'
'github'
image.detect
は、単一の画像に対して複数の注釈を返すのはなぜ?
検出結果が各属性(annotations[0].faces
,annotations[0].logos
など)に含まれているため、不要と思われます。
そして、私は自分のイメージでAPIをしようとすると、それは長さ1
のannotations
を返します。だから私の質問は次のとおりです。
- PythonのビジョンAPIクライアントは、単一の画像に対して複数の注釈を返すのはなぜ?
- リスト内の
annotation
をすべて解析する必要がありますか。annotations
?