有没有一种方法可以在webRTC中发送两个音频流而不是一个视频和音频流



我只关心音频,我想发送两个音频流,以便在接收器一侧同步。

现在,对于音频和视频,可以通过获得本地流

getUserMedia({'audio':true, 'video':constraints}, onUserMediaSuccess,
               onUserMediaError);

假设我有两个麦克风,我如何访问这两个音频流,并进一步在接收器上同步它们?

我认为这很快就会实现。

var audio1 = new AudioStreamTrack(constraints1);
var audio2 = new AudioStreamTrack(constraints2);
var stream = new MediaStream([audio1, audio2]);
navigator.getUserMedia(stream, successCb, errorCb);

您将能够跟踪音频/视频流,并将它们合并为一个流。

最新更新