2017-07-27 6 views
1

vxWorksシステムからHTML5オーディオプレーヤーへのライブオーディオストリーミングの実装を検討しています。私はしばらく研究してきましたが、1つの重要なステップに固執しています。ライブソースからのHTML5オーディオストリーミング

作業の流れ:

  1. ホストがマイクを持っており、オーディオはVxWorksのOSに受信されたマイク
  2. に話します。ここでは、コード化、パッケージ化が可能です。ここには何もありません。
  3. ????
  4. ユーザーは、HTML5プレーヤーでライブオーディオを聴くためにWebページを開きます。

私はステップ3で何が起こっているのかわかりません。私は今はMP3にオーディオをエンコードしたとします。これをブラウザに送るにはどんな技術が必要ですか?私はこれをHTTP procotolで送ることができると信じていますが、どのようにパッケージ化されているのか分かりません。つまり、オーディオはどのようにHTTPプロトコルにパッケージ化されていますか。 HTML5プレーヤーはこのデータのソースとして何を望みますか? URL?またはwebsocketデータですか?

ありがとうございました。

答えて

0

#3のソリューションは、HTML5プレーヤーで低レイテンシーのライブオーディオストリームが必要かどうかによって異なります。また、待ち時間は10〜30秒になります。

1.レイテンシはあなたがHLS経由でストリーミングするストリーミングサーバ/ HLSパッケージャ、およびHLSストリームはHTML5のvideoタグを使用していることを再生しますFlowplayerまたはJWPlayerをホストするWebページを必要とする

高くすることができます。そのストリーミングサーバー/ HLSパッケージャにAACエンコードされた(mp3ではない)オーディオストリームをプッシュする必要があります(RTMP公開が最も一般的な方法です)。

あなたは無料のnginxと一緒に行くことができます。 vxWorksに移植可能で、HLS経由でストリームアウトすることができます。あなたは同じもののために無料のVLCまたはffmpegを試すこともできます。

あなたはそれを動作させる場合は、ストリームは、任意のデバイス上の任意のブラウザで再生されます - のiOS、アンドロイド、WindowsのOS等...

2.あなたはこれがある

低遅延を必要としますはるかに難しい。 LinuxまたはWindows OSを実行する別のマシンが必要です。 そのマシンで、Unreal Media ServerまたはEvostreamサーバーをインストールします。これらのサーバーは、ISO BMFFパッケージを使用してWebsocketプロトコルを介してHTML5プレーヤーにストリームします。 前と同じように、AACエンコードされた(mp3ではない)オーディオストリームをそのストリーミングサーバーにプッシュする必要があります(RTMP公開が最も一般的な方法です)。

これらのストリームは、すべてのブラウザ/ iOS以外のすべてのOSで再生されます。

関連する問題