如何捕捉iOS相机和发布RTMP直播流



我已经完成了iOS上的RTMP播放器,使用FFmpeg解码flv1视频和speex音频。现在我想捕获iOS摄像头并解码H.264视频和AAC音频,然后将视频和音频流发布到RTMP服务器,Red5服务器作为之前使用的播放器程序。我知道我应该重新编译FFmpeg,添加libx264libaacplus以支持iOS视频和音频解码。但是如何发布RTMP直播流呢?使用RTMP_Write() ?RTMP_SendPacket()吗?请告诉我一些想法或解决方案,或者它是非常慷慨的你给我看一些代码。谢谢!

参考:捕获相机和发布视频与librtmp

FFmpeg通过内部协议("rtmp")和外部库("librtmp")支持rtmp输入和输出。我所知道的选择内部版本或librtmp版本而不是另一个版本的唯一原因是特定的服务器支持——也就是说,对于给定的服务器,一个版本可能比另一个版本更适合您。

在FFmpeg中,RTMP视频被混合为flv,只要你的输出路径/uri以"RTMP://…"开头,它应该为你工作。当然,没有什么可以阻止您直接使用librtmp——但是为什么要这么麻烦呢?

配置你的服务器接受流,并知道在哪个端点上查看流,可以是它自己的小冒险。

(免责声明:我现在就在这么做,所以我知道这是可能的和直接的。)

最新更新