如何在iOS上设置相机捕捉的延迟(秒)



我想知道在Swift的iOS上是否可以设置以秒为单位的相机馈送延迟。

假设我给我的相机增加了30秒的延迟。如果我把相机对准一个蹲着的人,然后那个人站起来,我的相机在那30秒过去之前不会显示出来。换句话说,它将继续显示这个人蹲着,直到时间过去。

我怎样才能做到这一点?

这听起来非常困难。问题是摄像机的记录每秒(很可能(会带来30帧。因此,30秒前的缓冲区需要保存在某个地方,并且以原始形式保存,这是一吨数据,所以你不能只把它们保存在内存中。

你不想写成图像,因为与视频相比,压缩是垃圾。

也许最好的方法是设置您的捕获,然后在10秒内捕获您的视频片段,保存到文件中,然后在AVPlayer或其他设备上显示这些视频文件片段。这样,它对用户来说是"延迟"的。

不管怎样,根据我对事物如何工作的理解,主要的挑战是在等待显示缓冲区时如何处理这些缓冲区。你可能会在某个地方流式传输它,但你需要一个完整的后端来支持它,然后再流式传输回来,这似乎很愚蠢。

最新更新