2017-08-09 22 views
0

RPiのアシスタント機能を使い始めるだけで、this pointまで実装でき、何か不思議に思っています。Googleのアクションを使用してカスタムコマンドでデバイスを制御する

シナリオ:

  • ユーザー:ON_RECOGNIZING_SPEACH_FINISHED
  • に基づいて、同じアクションを実行する機能を有している:ちょっとhorword.pyで
  • リストアイテム私のコードは、「私のリビングルームのライトをオンにしてください」のgoogle RPI/Googleホーム:私はON_RECOGNIZING_SPEACH_FINISHED = Args.text(文字列)と使用し、それは私を用いてユーザが尋ねたリクエストクエリをキャプチャすることができたこと

への対応方法を確認していませんタスクを実行するための私のロジック。しかし、同時に、「ok google」はこの回答に応答しています。

この問題を軽減するために、私はGoogleのアクションを作成しました。今ではクエリを理解し、api.aiからの意図で応答します。しかし、ターンライトは作動しませんでした。だから、どうすればテキストのGoogleホーム/ api.aiからの応答を読んで、それをローカルで実行するコードを変更することができますか?

ありがとうございます。

答えて

0

あなたはテキストとして回答を得ることはできません。 クライアントアプリケーションへの応答を取得するには、API.AIのwebhookを使用し、クライアントアプリケーションにfcmを使用してメッセージを送信します。 クライアントアプリケーションでfcmメッセージを読み取り、対応するアクションを実行します。

0

は、最終的に複数の方法を見つけ出すことができました。他のスタックの質問でこれに答えました。この記事で詳細を見つける。 Multiple ways to handle this Googleは音声の写しを提供していないので、Googleは現在Googleの代理店を解散させています。

関連する問題