如何在iOS(增强现实应用)的实时预览摄像头上制作OpenGl ES的截图



我是Objective-C和iOS编程的初学者。我花了一个月的时间来学习如何使用OpenGL ES(1.1版)在AvFoundation的实时摄像机预览之上显示3D模型。我在iPad上做一个增强现实应用。我处理输入帧,并实时显示3D对象覆盖与相机预览。这很好,因为有很多关于这些事情的网站和教程(也感谢这个网站)。

现在,我想将整个屏幕(以相机预览为背景的模型)的屏幕截图作为图像显示在下一个屏幕中。我在这里找到了一个很好的演示,http://cocoacoderblog.com/2011/03/30/screenshots-a-legal-way-to-get-screenshots/。他做了我想做的一切。但是,正如我之前所说,我是初学者,如果没有详细的解释,我无法理解整个项目。我被困了一段时间,因为我不知道如何实现它。

有没有人知道这个主题的任何好的教程或任何类型的资源,或者任何建议,我应该学习更多,以便做这个屏幕截图?这对我的生活有很大的帮助。

提前感谢。

我目前正试图解决同样的问题,允许用户截取增强现实应用程序的屏幕截图(我们使用高通的AR SDK插入Unity 3D来制作我们的AR应用程序,这使我不必学习如何以编程方式渲染OpenGL模型)

对于我的解决方案,我首先着眼于实现这里发现的第二个答案:如何以编程方式截图

否则,我将不得不重新设计CocoaCoder的截图应用程序中的"组合截图"方法。

这里有3个非常有用的截图链接:

OpenGL ES View Snapshot

如何使用AV Foundation从相机捕获视频帧作为图像

如何截取包含UIKit和Camera元素的应用程序的屏幕截图

享受

最新更新