iOS用のSwiftでオーディオを録音し、録音したオーディオファイルを再生できます。私が聞いているのは、録音されたオーディオファイルの背景ノイズ&のボリューム/デシベルをチェックすることができれば、スピーチのテキストフレームワークに十分であると判断できるかどうかです。フレームワークは問題ではなく、私は利用可能なすべてのものを研究しました。Swiftを使用して録音したオーディオファイルをテキストからテキストに変換する
AVFoundationやAccelerate Frameworkやその他のフレームワークで録音したオーディオファイルを解析して、音声ファイルが音声/テキストフレームワークで処理するのに十分かどうかを調べることができるのは不思議です。
私は多くのオーディオ知識は持っていませんが、少し調べたところ、録音中にピークと平均デシベル値を得ることができましたが、バックグラウンドノイズはどうですか?
スウィフトを使用して録音したオーディオファイルを分析する際に役立つ情報があります。
「swift」と「objective-c」は、リアルタイム優先度で実行されている深刻なプログラムのDSPスレッドではほとんど見つからない高水準言語です。どうして?問題を探しているのでなければ、快適なもの(オブジェクトの割り当て、メモリー管理、ポーリング&ブロッキングなど)はリアルタイムスレッドでは実行できないためです。 DSPコードでは、_fast_を実行することが重要です。したがって、あなたはUIやコントローラを 'swift'で書くことができますが、SNR推定のようなDSP部品の最も安全な賭けは_plain-C_に落ちるでしょう。 – user3078414