のdecodeAudioData
をmp3ファイルに使用します。これは私にAudioBuffer
を与えます。このオーディオバッファでは、getChannelData()
によって返されたデータを使用してキャンバスにこのmp3ファイルの波形を描画します。AudioBufferの "getChannelData()"はMediaStream(またはMediaStreamAudioSourceNode)に相当しますか?
私は同じコードを使用してMediaStream
のオーディオデータの波形を描きたいと思います。つまり、同じ種類の入力/データが必要です。私はMediaStream
はリアルタイムの情報が含まれていますが、どのようなAudioBuffer
年代であるPCMデータ
を含むFloat32Array
としてMediaStream
からそれぞれの新しいデータにアクセスする方法がなければならない知っているgetChannelData
戻る。私は(
Float32Array
を返す)MediaStreamAudioSourceNode
とMediaStream
をラップし、getFloatFrequencyData()
を使用するAnalyserNode
にそれを供給しようとしたが、私は、データは私がgetChannelData()
から取得したデータは異なっている伝えることができます。 PCMデータではないのでしょうか? 「PCM」データを取得するにはどうすればよいですか?これは明らかです。助けてくれてありがとう!
'getFloatTimeDomainData()'は、キャンバス上の波形を描画した結果、 'getFloatTimeDomainData()'が結果として 'getChannelData()'と同じ種類のデータを返すようには見えません。両方の配列が同じデータを表し、同じ方法で編成されていますか? – maximedupre
MediaStreamに複数のチャンネル(ステレオ、たとえば、)がある場合、 'AnalyserNode'はそれらをモノにミックスします。 MediaStreamデータを分割する必要があります(ChannelSplitterNodeを使用して、必要なトラックを取得してアナライザに送信する必要があります)。 –
@RaymondToy感謝してくれたRaymond、私を救った!!あなたはそれを回答として投稿できますか?この追加情報を含めるように答えを更新することはできますか? – maximedupre