直接呼叫音频单元而不是回调 iOS



是否有对音频单元的直接调用,这样我就不必依赖系统回调输入和渲染回调(我可以用计时器来模拟这一点)。例如,就像有 AudioUnitRender 从音频单元中提取数据一样,是否有另一个 API 将数据推送到音频单元?

虽然我不知道 CoreAudio API 中存在特定的类似推送的调用,但您可以通过在单独的 C 函数中进行 DSP 处理来轻松实现此操作,该函数采用传入的浮点缓冲区。这样,渲染回调可以在那里完成艰苦的工作,如果需要进行基于推送的处理,您也可以手动调用该函数。

音频单元行为是拉取模型。输出请求要播放的数据,如果有,则播放。

开始录制的常用方法是在输出回调中调用 Render。渲染将从录音机中获取可以播放的数据,或者只是将录制的数据保存到其他地方并将播放器设置为静音。

最新更新