2016-05-10 3 views
0

私はノードjを初めて使用しており、IBMのスピーチ・トゥ・テキスト・サンプル・アプリケーション(https://github.com/watson-developer-cloud/speech-to-text-nodejs)の作業中です。エクスプレスフレームワークを使用し、マイクロフォンから転写された音声をウェブページ上のテキストボックスおよびブラウザコンソールに印刷します。 expressを使って見た他の例は、コマンドラインコンソールに出力されています。誰も私になぜconsole.logがコマンドラインではなくブラウザコンソールに出力されているのか説明できますか?それはクライアント側で実行されるため、ブラウザのコンソールにNode JSコマンドラインとブラウザの出力の対比

答えて

2

にconsole.log出力そんなに

感謝。 少々の文章で: ブラウザに 'http://localhost:3000'と入力すると、ブラウザはnodejsアプリの '/'にGETリクエストを行います。 ご覧のとおり、このリクエストは47行のapp.jsで処理されます。アプリケーションは./views/index.ejsファイルをhtmlページにレンダリングし、クライアントに送信します。 したがって、すべてのロジックはクライアント側で実行されます。あなたのnodejsアプリケーションはhtmlページをユーザに提供するだけです。 サーバー側で音声認識を実行する場合は、次のいずれかの操作を実行できます。 1.サーバーからオーディオデータをマイクロサーバーにストリームし、サーバー上で を認識します。 2. 録音が終了するまでクライアント側にオーディオデータを保存し、保存したデータをサーバーに送信すると、サーバーは を認識します。 (オーディオファイルのようなテキスト認識) 3. googleについてワトソンサーバー - サーバーの音声 認識。

+0

私は1)私が欲しいと思うように思う。私があなたが言っていることを理解すれば、マイクから直接オーディオ入力を取得し、それをサーバーにストリームする必要があります。代わりに、ブラウザのマイク認識を使用して?このようなものを使用することができます:https://www.npmjs.com/package/microphone? – amartin7211

+0

amartin7211音声認識のためのコンソールアプリケーションとしてnodejs appを使用し、クライアント側からのマイクロフォンを全く認識する必要がない場合は、そのマイクロフォンnpmパッケージをサーバ側で使用できます。 しかし、コンソールアプリケーションとしてnodejsを使用すると、暗い方法のIMHOです。 ユーザーがIBMから直接認識するのではなく、サーバーを通じて音声を認識できるようにするには、マイクロフォンからサーバーにデータをストリーミングしてサーバー上で認識させる必要があります。 また、クライアント上のすべてを認識し、認識結果をサーバーに送信することもできます。例えば、サーバー上に結果を表示する。それはより簡単です。 – CrazyMax

関連する問題