vxWorksシステムからHTML5オーディオプレーヤーへのライブオーディオストリーミングの実装を検討しています。私はしばらく研究してきましたが、1つの重要なステップに固執しています。ライブソースからのHTML5オーディオストリーミング
作業の流れ:
- ホストがマイクを持っており、オーディオはVxWorksのOSに受信されたマイク
- に話します。ここでは、コード化、パッケージ化が可能です。ここには何もありません。
- ????
- ユーザーは、HTML5プレーヤーでライブオーディオを聴くためにWebページを開きます。
私はステップ3で何が起こっているのかわかりません。私は今はMP3にオーディオをエンコードしたとします。これをブラウザに送るにはどんな技術が必要ですか?私はこれをHTTP procotolで送ることができると信じていますが、どのようにパッケージ化されているのか分かりません。つまり、オーディオはどのようにHTTPプロトコルにパッケージ化されていますか。 HTML5プレーヤーはこのデータのソースとして何を望みますか? URL?またはwebsocketデータですか?
ありがとうございました。