我需要从本地视频文件中获取帧,以便在播放视频之前处理它们。我已经尝试过使用AVAssetReader和VideoOutput。
[编辑] 这是我使用 AV 播放器访问单个帧中使用的代码
let asset = AVAsset(URL: inputUrl)
let reader = try! AVAssetReader(asset: asset)
let videoTrack = asset.tracksWithMediaType(AVMediaTypeVideo)[0]
// read video frames as BGRA
let trackReaderOutput = AVAssetReaderTrackOutput(track: videoTrack, outputSettings:[String(kCVPixelBufferPixelFormatTypeKey): NSNumber(unsignedInt: kCVPixelFormatType_32BGRA)])
reader.addOutput(trackReaderOutput)
reader.startReading()
while let sampleBuffer = trackReaderOutput.copyNextSampleBuffer() {
print("sample at time (CMSampleBufferGetPresentationTimeStamp(sampleBuffer))")
if let imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer) {
// process each CVPixelBufferRef here
// see CVPixelBufferGetWidth, CVPixelBufferLockBaseAddress, CVPixelBufferGetBaseAddress, etc
}
}
我相信AVAssetReader应该可以工作。 你试了什么? 你看过苹果的这个示例代码吗? https://developer.apple.com/library/content/samplecode/ReaderWriter/Introduction/Intro.html
我发现了问题所在!这是我的实施。我发布的代码是正确的。谢谢大家
你可以看看 VideoToolbox : https://developer.apple.com/documentation/videotoolbox
但请注意:这接近硬件解压缩器和稀疏记录的地形。
根据您要执行的处理方式,OpenCV 可能是一种选择 - 特别是如果您正在检测或跟踪帧中的对象。如果你的需求更简单,那么使用 OpenCV 和 swift 的努力可能有点太多了 - 见下文。
您可以打开视频,逐帧阅读,在帧上完成工作,然后显示 - 请记住需要高效以避免延迟显示。
基本的代码结构非常简单 - 这是一个python示例,但相同的原则适用于支持的语言
import numpy as np
import cv2
cap = cv2.VideoCapture('vtest.avi')
while(cap.isOpened()):
ret, frame = cap.read()
//Do whatever work you want on the frame here - in this example
//from the tutorial the image is being converted from one colour
//space to another
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
//This displays the resulting frame
cv2.imshow('frame',gray)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
cv2.destroyAllWindows()
更多信息在这里: http://opencv-python-tutroals.readthedocs.io/en/latest/py_tutorials/py_gui/py_video_display/py_video_display.html
需要注意的是,将 OpenCV 与 swift 一起使用需要一些额外的努力 - 这是一个很好的例子,但它在不断发展,所以如果你决定这样做,值得搜索:https://medium.com/@yiweini/opencv-with-swift-step-by-step-c3cc1d1ee5f1