私はThe Amazing Audio Engine 2
で構築された大きなプロジェクトを持っています。私はInter-App-Audioを統合するのに苦労し、AudioKit 3に移行したいと考えています。TAAE2からAudioKit 3への移行
苦労していますが、それは統合されていますが、ジェネレータとして選択するとすぐにレンダリングが停止し、無効状態。
オーディオシステムの主な違いは何ですか? TAAE2はレンダリングブロックを持つモジュールを使用して、レンダリングスタックからオーディオバッファをプッシュしてポップします。
AudioKitはどのようにオーディオをレンダリングしますか? AEModuleをAudiokitオブジェクトに移行する際、何が高レベルで関与していますか?
Daveさん、ありがとうございますので、TAAE1と似ています。チェーンの設定の順序はどうですか?例えば。 LFOとエンベロープジェネレーターで変調された複数のオシレーターを備えたポリフォニックボイスで、TAAE2はモジュールでの呼び出しプロセスを可能にします。これはAudioKitでどのように行われますか? – jarryd
あなたの質問を正しく理解している場合、最も大きな違いは、プロセスをモジュールで呼び出す代わりに、そのプロセスをノードに追加して、オーディオが通過することです。したがって、いくつかのオシレーターでのみ処理したい場合は、いくつかのオシレーターの出力をエンベロープフィルターで「ルーティング」する必要があります。 AVAudioEngineファミリは、バッファ操作モデルではなく、物理モデル(ジェネレータ→パッチ・ケーブル→エフェクト)に従います。 – dave234
AVAudioEngineのデザインがポリフォニックな声をどのようにサポートできるかを理解しようとしています。 1つのLFOと1つのエンベロープを持つ1つのオシレーターを持つ1つのボイスがあるとします。TAAE2では、メインのレンダリング機能がボイスのレンダーを呼び出すことができ、それからoscillator.render、lfo.render、envelope.renderを呼び出します。 AVAudioEngineでノード接続を使ってこの設定をどのように設定しますか? audioEngine.connect(voice1、to:audioEngine.mainMixerNode、format:audioFormat)、次にaudioEngine.connect(オシレータ:to:オシレータ)というボイスオブジェクトのaudioEngine.connect(オシレータ、to:self、format:audioFormat) (LFO、to:Envelope)engine.connect(Envelope、to engine.mainMixer) 'のようになります(簡潔さのために短縮された関数)' – jarryd