opus

    0

    1答えて

    私は現在、4つの異なる物理的な場所を持っています。それぞれは、アスタリスク14.6.0をプレーンで実行し、G729コーデックでDigium D40を使用しています。すべての場所は、IAX2とG729コーデックを使用してOpenVPN経由で接続されています。私たちは、各PBXに専用の通常のケーブルモデム(2MB)インターネット接続を使用しているため、VOIPトラフィックは通常のインターネット使用と競

    0

    1答えて

    私は現在、WebRTCアプリケーションを構築しており、私の解決策を評価するためにいくつかの統計を収集したいと考えています。興味のあるメトリックの1つは、受信したオーディオ(およびビデオ)ストリームの現在の帯域幅です。現在使用されているコーデックはchrome://webrtc-internals/(OPUS)ですが、現在のストリームの品質/帯域幅(128kbit/sなど)に関する数字は見つかりませ

    0

    1答えて

    アンドロイドアプリを作って、ローカルWi-Fiネットワークからボイスをストリームします。私はJNIでOpus C APIを使ってデコードし、OpenSL Audioで読み込みます。 私はServiceからJNIを呼びます。 public class StreamService extends Service { private NativeReceiver mNativeReceiv

    1

    1答えて

    これはおそらく非常に簡単です。 私はNDKを使用するAndroidプロジェクトを持っています。ネイティブコードにopusソースコードを含めたいと思います。私はCMakeのExternalProject_Addプロパティを使用しようとしましたが、私のネイティブコードはまだOpusライブラリからヘッダーをインポートできず、ビルドに失敗します。 以下は私のExternalProject_Add定義です:

    0

    1答えて

    AndroidスタジオでOPUSをコンパイルしようとしています。 コマンドラインからndk-buildを呼び出すと、すべて正常に動作します。 Android Studioからビルドすると失敗します。 マイapp.gradle: include celt_sources.mk エラー: Error while executing process G:\ASDK\ndk-bundle\ndk-bu

    0

    1答えて

    機能opus_encodeは、フレームサイズをパラメータとして必要とします。 api docでは、バッファサイズはチャンネルごとのサンプル数です。 しかし、どのサイズを使用すればよいですか? 私はアンドロイドでopusを使用しています。サンプルレート16k、バッファサイズ1280です。エンコードとデコードでフレームサイズを640に設定すると、デコードされたファイルの長さは生のpcmの半分になります

    0

    1答えて

    WhatsApp音声メモを管理するアプリケーションを開発しています。 WhatsApp UIでは、ユーザーは音声メモを共有してから、自分のアプリケーションを共有オプションとして選択できます。 私のアプリケーションは暗黙のインテントでWhatsAppの音声ノートURIを受信し、ユーザーがアプリケーションのUIのボタンを押したときにアプリケーションが音声メモを再生できるURIを使用します。 私が直面し

    0

    1答えて

    ファイルからopusパケットを読み取るアプリケーションがあります。このファイルはopusパケットをogg形式で確認します。私のアプリケーションは、20ミリ秒ごとに各opusパケットを送信します(設定可能です)。 20ミリ秒の間、平均サイズが300バイトであるとすると、200バイトから400バイトのサイズのパケットを送信します。 20ミリ秒で300バイトを送信するのは、それが正しいかそのデータ量が大

    0

    1答えて

    QtWebengineを使ってアームプラットフォーム用にQt5.9.1をビルドしようとしています。 これはビルドに渡すアーキテクチャベースの引数です。 QMAKE_CFLAGS_RELEASE += -march=armv7-a -mcpu=cortex-a9 QMAKE_CXXFLAGS_RELEASE += -march=armv7-a -mcpu=cortex-a9 デフォルトでは、ビ