创建一个缓冲区和管道数据来播放它



我正在尝试使用电子播放洪流中的流媒体声音。为了做到这一点,我使用https://github.com/feross/webtorrent下载电子主过程中的所有数据。然后,当我选择要下载的声音时,我将获得要播放的文件流,并将其发送到以下函数

中的html renderer进程
ipc.on('getPlayData', function(event, data){
    console.log('get file data stream');
    in_play = data[1];
    //Crea el stream del archivo que se va a reproducir
    var streamfile = downloaderInstance.getFileToPlay(data[0], data[1]).createReadStream();
    //se envia la longiud del archivo en bytes para el buffer.
    event.sender.send('toPlay', [downloaderInstance.getFileToPlay(data[0], data[1]).name,
             downloaderInstance.getFileToPlay(data[0], data[1]).length]);
    streamfile.on('data', function(chunk){
        event.sender.send('addData', chunk);
});

其中'toPlay'消息告诉文件的渲染器参数,需要放入html和数据发送我从种子种子中获得的每一个数据。

然后在渲染过程中,我得到的数据到一个缓冲区使用https://github.com/feross/render-media,但我也尝试与javascript的WebAudioApi工作。我在以下函数中管理数据:

ipc.on('toPlay', (event, data) => {
    console.log("to play: " + data[0]);
    var buf = [];
    var stream_length = parseInt(data[1]);
    var stream_data = Buffer.alloc(stream_length);
    ipc.on('addData', (event, data) => {
         buf.push(data);
         stream_data = Buffer.concat(buf);
    })
    var file = {
         name: data[0],
         createReadStream: function(opts){
         //console.log(stream_data.length);
         return from( [stream_data.slice(0, stream_length) ]);
         }
    }
    //console.log(file.createReadStream);
    render.render(file, 'audio', [true, true, stream_length], function(err, elem){
     if(err){ return console.log('error appending') }
    })
})

中的render是一个在音频DOM节点中播放媒体源的函数。我的问题是,我在缓冲区中保留了文件的全部内存,将渲染函数设置为文件的完整持续时间,但它只播放我已经下载的数据,而不是在ipc收到新闻时重新加载数据,我找不到方法来做到这一点。

解决方案是

var readableStream = new Readable();
var file = {
         name: data[0],
         createReadStream: function(opts){
         return ReadableStream;
         }
    }

但是可读的应该在返回前完全加载。

相关内容

  • 没有找到相关文章

最新更新