在webRTC通话期间在WebRTC中流式传输音频



我的应用程序使用Google WebRTC框架进行音频通话,这部分工作。但是,我想找到一种在通话期间流式传输音频文件的方法。

场景: A 呼叫 B B 回答并播放音乐 A 听听这首音乐

我已经下载了WebRTC的整个源代码,并试图了解它是如何工作的。在iOS部分,它似乎正在使用音频单元。我可以看到一个voice_processing_audio_unit文件。我会(也许是错误的(假设我需要创建一个从文件中读取其数据的自定义audio_unit?

有没有人知道该往哪个方向走?

在为这个问题奋斗了整整一周之后。我终于设法找到了解决这个问题的方法。

通过编辑WebRTC代码,我能够达到AudioUnits的级别,并在AudioRenderingCallback中捕获io_data缓冲区。

每 10 毫秒调用一次此回调,以从麦克风获取数据。因此,在这个精确的回调中,我能够更改这个io_data缓冲区来放置我自己的音频数据。

最新更新