RPiのアシスタント機能を使い始めるだけで、this pointまで実装でき、何か不思議に思っています。Googleのアクションを使用してカスタムコマンドでデバイスを制御する
シナリオ:
- ユーザー:ON_RECOGNIZING_SPEACH_FINISHED
- に基づいて、同じアクションを実行する機能を有している:ちょっとhorword.pyで
- リストアイテム私のコードは、「私のリビングルームのライトをオンにしてください」のgoogle RPI/Googleホーム:私はON_RECOGNIZING_SPEACH_FINISHED = Args.text(文字列)と使用し、それは私を用いてユーザが尋ねたリクエストクエリをキャプチャすることができたこと
への対応方法を確認していませんタスクを実行するための私のロジック。しかし、同時に、「ok google」はこの回答に応答しています。
この問題を軽減するために、私はGoogleのアクションを作成しました。今ではクエリを理解し、api.aiからの意図で応答します。しかし、ターンライトは作動しませんでした。だから、どうすればテキストのGoogleホーム/ api.aiからの応答を読んで、それをローカルで実行するコードを変更することができますか?
ありがとうございます。