似乎从iOS 4.3发布开始,AudioQueue的AMR支持就消失了。我无法使用从RSTP服务器接收到的旧音频帧:
audioFormat.mFormatID = kAudioFormatAMR;
int err = AudioQueueNewOutput(&audioFormat, MyAudioQueueOutputCallback, self, NULL, kCFRunLoopCommonModes, 0, &audioQueue);
结果在最后一个字符串中收到一个错误。
也许有人知道如何解码AMR AVPacket成原始缓冲区和编码它与AAC或MP3使用LIBAV?
我试着使用
avcodec_decode_audio3
它可以工作,我可以得到原始缓冲区但是当我试图用
编码它时avcodec_encode_audio
得到0作为结果
这是我的方法来编码缓冲区:
- (AVPacket) encodeRawFrame:(const short *) in_buffer withSize:(unsigned int) in_buf_byte_size
{
AVPacket res;
AVCodec *codec;
AVCodecContext *c= NULL;
int count, out_size, outbuf_size, frame_byte_size;
uint8_t *outbuf;
avcodec_init();
avcodec_register_all();
printf("Audio encodingn");
codec = avcodec_find_encoder(CODEC_ID_AAC);
if (!codec) {
fprintf(stderr, "codec not foundn");
return res;
}
c= avcodec_alloc_context();
c->bit_rate = 64000;
c->sample_rate = 24000;
c->channels = 2;
if (avcodec_open(c, codec) < 0)
{
fprintf(stderr, "could not open codecn");
}
else
{
frame_byte_size=c->frame_size*2*2;
count = in_buf_byte_size/frame_byte_size;
fprintf(stderr, "Number of frames: %dn", count);
outbuf_size = AVCODEC_MAX_AUDIO_FRAME_SIZE;
outbuf = (uint8_t*) malloc(outbuf_size);
out_size = avcodec_encode_audio(c, outbuf, outbuf_size, &in_buffer[frame_byte_size*i]);
if(out_size >= 0)
{
res.size = outbuf_size;
res.data = malloc(outbuf_size);
}
free(outbuf);
}
avcodec_close(c);
av_free(c);
return res;
}
编码后"out_size"始终为0,结果缓冲区为空。
谢谢。
所以,我已经找到了所有的解决方案,现在我的媒体播放器类可以播放RTSP音频和视频。我明白,使用解码从AMR到AAC不是一个好主意,因为资源的使用,它会更好地播放RAW缓冲区,你可以使用解码手段,允许从AMR获得RAW缓冲区。我有一个很好的例子(实际上,我必须做一个小重构:))如何播放RTSP流,我准备与ppl分享,如果他们介意提供电子邮件:)。此外,我有LIBAV, AMR_NB和AAC编码器的通用二进制(armv6, armv7, i386)。
谢谢。