2017-09-14 34 views
1

私は音声のみ(ビデオなし)チャットアプリケーションを作成しています。私はシグナリング用に独自のnode.js/socket.ioベースのサーバーを作成しました。リモート/ローカルのSDPを設定し、ローカルストリームを追加し、https://cocoapods.org/pods/WebRTCWebRTC iOS音声チャット

私はピア接続の作成に成功している、と氷の候補を送信/受信:

のWebRTC用

、私は次のポッドを使用しています。 "didAddStream"デリゲートメソッドも正常にオーディオトラックを持つと呼ばれますが、私はここでスタックしています。私はオーディオトラックで何をすべきか分かりません。次のステップは何でしょうか?私はどのように両面でオーディオを送受信しますか?

また、私がCallKitを統合する場合、どのような変更が必要ですか。

答えて

1

私はこの1つにもこだわってしまった。オーディオを再生するには、RTCMediaStreamオブジェクトを保持する必要があります。 RTCAudioTrackで何もする必要はなく、自動的に再生されます。私はそれを保持することができるようにプロパティに割り当てるだけです。ここの私の例を見てください:https://github.com/redfearnk/WebRTCVideoChat/blob/master/WebRTCVideoChat/WebRTCClient.swift#L143

+0

はい、それは私が最後に見つけたものです。あなたは何もする必要はありません、オーディオは自動的に再生を開始します。 私はCallKitと統合されたスタンドアロンのNode.JSソケットサーバーを使用してiOSネイティブアプリ(swiftを使用)にWebRTCに関するブログを書く予定です。 ご回答いただきありがとうございます。 –

+0

素晴らしいアイデア!私はそれを見たいと思う –

関連する問題