iPhone ffmpeg开发使用libav解码从AMR到ACC编解码器



似乎从iOS 4.3发布开始,AudioQueue的AMR支持就消失了。我无法使用从RSTP服务器接收到的旧音频帧:

audioFormat.mFormatID = kAudioFormatAMR; 
int err = AudioQueueNewOutput(&audioFormat, MyAudioQueueOutputCallback, self, NULL, kCFRunLoopCommonModes, 0, &audioQueue);

结果在最后一个字符串中收到一个错误。

也许有人知道如何解码AMR AVPacket成原始缓冲区和编码它与AAC或MP3使用LIBAV?

我试着使用

avcodec_decode_audio3

它可以工作,我可以得到原始缓冲区但是当我试图用

编码它时
avcodec_encode_audio

得到0作为结果

这是我的方法来编码缓冲区:

- (AVPacket) encodeRawFrame:(const short *) in_buffer withSize:(unsigned int) in_buf_byte_size
{
    AVPacket res;
    AVCodec *codec;
    AVCodecContext *c= NULL;
    int count, out_size, outbuf_size, frame_byte_size;
    uint8_t *outbuf;
    avcodec_init();
    avcodec_register_all();
    printf("Audio encodingn");
    codec = avcodec_find_encoder(CODEC_ID_AAC);
    if (!codec) {
        fprintf(stderr, "codec not foundn");
        return res;
    }
    c= avcodec_alloc_context();
    c->bit_rate = 64000;
    c->sample_rate = 24000;
    c->channels = 2;
    if (avcodec_open(c, codec) < 0) 
    {
        fprintf(stderr, "could not open codecn");
    }
    else
    {
        frame_byte_size=c->frame_size*2*2;
        count = in_buf_byte_size/frame_byte_size;
        fprintf(stderr, "Number of frames: %dn", count);
        outbuf_size = AVCODEC_MAX_AUDIO_FRAME_SIZE;
        outbuf = (uint8_t*) malloc(outbuf_size);
        out_size = avcodec_encode_audio(c, outbuf, outbuf_size, &in_buffer[frame_byte_size*i]);
        if(out_size >= 0)
        {
            res.size = outbuf_size;
            res.data = malloc(outbuf_size);                
        }
        free(outbuf);
    }

    avcodec_close(c);
    av_free(c);
    return res;
}

编码后"out_size"始终为0,结果缓冲区为空。

谢谢。

所以,我已经找到了所有的解决方案,现在我的媒体播放器类可以播放RTSP音频和视频。我明白,使用解码从AMR到AAC不是一个好主意,因为资源的使用,它会更好地播放RAW缓冲区,你可以使用解码手段,允许从AMR获得RAW缓冲区。我有一个很好的例子(实际上,我必须做一个小重构:))如何播放RTSP流,我准备与ppl分享,如果他们介意提供电子邮件:)。此外,我有LIBAV, AMR_NB和AAC编码器的通用二进制(armv6, armv7, i386)。

谢谢。

最新更新