2016-12-17 8 views
0

IBMのWatsonと協力してテキストをテキストにするためにnpmモジュールを使用しています。私はここにこのパッケージを使用しています:https://github.com/watson-developer-cloud/speech-javascript-sdkノードを持つIBM Watson Speech to Text API。 DOMへの出力方法

私は正常に認証できますが、それ以外は何も起こりません。私はレスポンスからテキストを取り出してDOMに挿入したいと思っています。私はそれを試してみるために次のことを試してみましたが、私は何のフィードバックも得ていません。 options.outputElement が設定されている場合WritableElementStreamに渡さ

その他のオプション:

WatsonSpeech.SpeechToText.recognizeMicrophone({token: token, keepmic: true, ouputElement: "body"}).promise().then(function() { 
    console.log("talking"); 
    }) 

ドキュメントは、この方法については、以下を言います。

そして

パイプの結果、デフォルトでFormatStreamて、無効にするには>偽options.format =を設定します。

私は、応答を処理し、私のDOMに挿入置くが、私はそれを把握することはできませんので WatsonSpeech.SpeechToText.recognizeMicrophone は、コールバック関数を取るだろうと思うだろう。また、私は実際にJSの男ではないので、私は約束が何をしているのか分かりません。

答えて

1

「ゼロから認知」の第3章では、このコードを正確に適用しています。

https://github.com/rddill-IBM/ZeroToCognitive

私はあなたがユーチューブ上の彼のレッスンを見てみることをお勧めしますが、ここで私が見つけたコードです。

function initPage() 
{ 
    var _mic = $('#microphone'); var _stop = $("#stop"); 
_mic.addClass("mic_enabled"); 
_stop.addClass("mic_disabled"); 

    _mic.on("click", function() 
    { 
     var _className = this.className; 
     if(this.className == "mic_enabled") 
     { 
     _mic.addClass("mic_disabled"); 
    _mic.removeClass("mic_enabled"); 
    _stop.addClass("mic_enabled"); 
    _stop.removeClass("mic_disabled"); 
    $.when($.get('/api/speech-to-text/token')).done(
     function (token) { 
     stream = WatsonSpeech.SpeechToText.recognizeMicrophone({ 
      token: token, 
      outputElement: '#speech' // CSS selector or DOM Element 
     }); 
     stream.on('error', function(err) { console.log(err); }); 
     }); 
    } 
    }); 

    _stop.on("click", function() { 
     console.log("Stopping text-to-speech service..."); 
     if (stream != undefined) {stream.stop(); } 
     _mic.addClass("mic_enabled"); 
     _mic.removeClass("mic_disabled"); 
     _stop.addClass("mic_disabled"); 
     _stop.removeClass("mic_enabled"); 
    }); 

}

関連する問題