Android使用libavcodec为ARGB编码h264



我有一个缓冲区内容流,它实际上包含480x800大小的ARGB图像[大小为480*800*4]的字节数组。我想以指定的fps(12)将大约10000s的类似图像编码成h.264流。这展示了如何将图像编码为编码视频,但需要输入为yuv420。

现在我有ARGB图像,我想编码成CODEC_ID_H264如何从YUV420p转换RGB用于ffmpeg编码器?显示了如何为rgb24执行此操作,但如何为rgb32执行此操作(即ARGB图像数据)

如何使用libavcodec?

编辑:我发现如何从YUV420p转换RGB用于ffmpeg编码器?但我不明白。

从第一个链接中,我了解到AVFrame结构包含数据[0]、数据1、数据[2],它们用Y、U&V值。

在第二个环节中,他们展示了如何使用sws_scale将RGB24转换为YUV420作为

SwsContext * ctx = sws_getContext(imgWidth, imgHeight,
                              AV_PIX_FMT_RGB24, imgWidth, imgHeight,
                              AV_PIX_FMT_YUV420P, 0, 0, 0, 0);
uint8_t * inData[1] = { rgb24Data }; // RGB24 have one plane
int inLinesize[1] = { 3*imgWidth }; // RGB stride
sws_scale(ctx, inData, inLinesize, 0, imgHeight, dst_picture.data, dst_picture.linesize)

这里我假设rgb24Data是包含RGB24图像字节的缓冲区。

那么我如何将这些信息用于32位的ARGB呢?我需要手动剥离alpha通道或其他任何工作吗?

感谢

只需将像素格式和线条步幅从RGB24切换到ARGB

SwsContext * ctx = sws_getContext(imgWidth, imgHeight,
                              AV_PIX_FMT_ARGB, imgWidth, imgHeight,
                              AV_PIX_FMT_YUV420P, 0, 0, 0, 0);
uint8_t * inData[1] = { rgb24Data }; // RGB24 have one plane
int inLinesize[1] = { 4*imgWidth }; // RGB stride
sws_scale(ctx, inData, inLinesize, 0, imgHeight, dst_picture.data, dst_picture.linesize)

最新更新