同时在屏幕上显示iOS前置摄像头和不同的视频显示



我正在为一个教育Web应用程序构建一个后端程序,其前端显示某些内容的视频(可能是服务器上的某些视频),同时使用网络摄像头记录用户对视频的响应。在此之后,服务器端会进行一些处理。我想将前端移植到 iOS。我做了一些SO搜索,但我不清楚他们是否回答了这个确切的问题。请在屏幕上播放另一个视频时,让我知道是否有办法同时从iOS设备前置摄像头录制?我的问题也涉及技术可行性和苹果在这方面的规则。

如果这是一个重复的问题,请让我知道它是一个重复的问题,因为我无法找到一个好的答案。谢谢!

哈里什。

这样做应该没有问题,但是您需要监控性能,因为相机会严重消耗iOS处理器和内存,视频也是如此。

对于这两种类型的活动,您可以使用作为 iOS SDK 的一部分提供的 AV Foundation 框架。您将在屏幕上提供视频,并在应用程序的单独部分中从屏幕上捕获视频(它们是两个相对不相关的区域 - 唯一真正重要的是告诉相机要录制多长时间以同步两者)。要从摄像机捕获视频,同时不将其放在屏幕上,您需要在 AVCaptureSession 中手动监视从摄像机返回的媒体。

最新更新