我一直在为这件事烦恼。
我在这里发现了一些东西,但实际上似乎什么都不起作用。而且文档确实有限。
我在这里试图弄清楚的是,如何从时间代码轨道中获得Objective-C中Quicktime电影的开始时间代码,并从中获得人类可读的输出。
我发现:来自Quick Time 的SMPTE时间代码
它可以在32位模式下完美工作。但由于Quicktime API的原因,它不能在64位模式下工作。我需要将其合并到的软件已经并且必须继续运行64位。
我在这里疯了。有人知道这些API吗?
最终,这里的目标是找出Quicktime的开始时间代码,因为它需要在FCP-X XML文件中设置OFFSET。如果没有它,视频文件就没有音频(或者,实际上,它只是滑了很多)。
使用AVFoundation框架,而不是QuickTime。播放器初始化在文档中有很好的解释:https://developer.apple.com/library/mac/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/02_Playback.html#//apple_ref/doc/uid/TP40010188-CH3-SW2
一旦您的AVAsset加载到内存中,您就可以通过读取时间码轨道的内容(如果存在)来提取第一个样本帧编号(timeStampFrame):
long timeStampFrame = 0;
for (AVAssetTrack * track in [_asset tracks]) {
if ([[track mediaType] isEqualToString:AVMediaTypeTimecode]) {
AVAssetReader *assetReader = [AVAssetReader assetReaderWithAsset:_asset error:nil];
AVAssetReaderTrackOutput *assetReaderOutput = [AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:track outputSettings:nil];
if ([assetReader canAddOutput:assetReaderOutput]) {
[assetReader addOutput:assetReaderOutput];
if ([assetReader startReading] == YES) {
int count = 0;
while ( [assetReader status]==AVAssetReaderStatusReading ) {
CMSampleBufferRef sampleBuffer = [assetReaderOutput copyNextSampleBuffer];
if (sampleBuffer == NULL) {
if ([assetReader status] == AVAssetReaderStatusFailed)
break;
else
continue;
}
count++;
CMBlockBufferRef blockBuffer = CMSampleBufferGetDataBuffer(sampleBuffer);
size_t length = CMBlockBufferGetDataLength(blockBuffer);
if (length>0) {
unsigned char *buffer = malloc(length);
memset(buffer, 0, length);
CMBlockBufferCopyDataBytes(blockBuffer, 0, length, buffer);
for (int i=0; i<length; i++) {
timeStampFrame = (timeStampFrame << 8) + buffer[i];
}
free(buffer);
}
CFRelease(sampleBuffer);
}
if (count == 0) {
NSLog(@"No sample in the timecode track: %@", [assetReader error]);
}
NSLog(@"Processed %d sample", count);
}
}
if ([assetReader status] != AVAssetReaderStatusCompleted)
[assetReader cancelReading];
}
}
这比QuickTimeneneneba API稍微复杂一些,上面的代码必须有一些改进,但它对我有效。