使用 ARKit 将图库中的图像放在墙上



我有一个来自服务器并存储在图库中的图像列表。我想选择任何图像并使用ARKit放置在实时墙上,并希望将图像转换为3d图像tp执行缩放,移动图像等操作。

任何人都可以指导如何在AR中创建自定义对象吗?

要检测ARKit中的垂直表面(例如墙壁(,您需要首先设置ARWorldTrackingConfiguration,然后在应用中启用planeDetection

因此,在您的Class Declaration下,您将创建以下变量:

@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()

然后初始化您的ARSession,例如ViewDidLoad

override func viewDidLoad() {
super.viewDidLoad()
//1. Set Up Our ARSession
augmentedRealityView.session = augmentedRealitySession
//2. Assign The ARSCNViewDelegate
augmentedRealityView.delegate = self
//3. Set Up Plane Detection
configuration.planeDetection = .vertical
//4. Run Our Configuration
augmentedRealitySession.run(configuration, options: [.resetTracking, .removeExistingAnchors])
}

现在您已全部设置为检测到的垂直平面,您需要挂钩到以下ARSCNViewDelegate方法:

func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) { }

这很简单:

告知委托与新 AR 对应的 SceneKit 节点 定位点已添加到场景中。

在这种方法中,我们将显式查找已检测到的任何ARPlaneAnchors,这些为我们提供:

有关真实世界公寓的位置和方向的信息 在世界跟踪 AR 会话中检测到的表面。

因此,将SCNPlane放置在检测到的垂直平面上非常简单:

//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//2. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//3. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
let imageHolder = SCNNode(geometry: SCNPlane(width: width, height: height))
//4. Rotate It
imageHolder.eulerAngles.x = -.pi/2
//5. Set It's Colour To Red
imageHolder.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//4. Add It To Our Node & Thus The Hiearchy
node.addChildNode(imageHolder)
}
}

将此应用于您的案例:

在您的情况下,我们需要做一些额外的工作,因为您希望能够允许用户将图像应用于垂直平面。

因此,您最好的选择是使刚刚添加的节点添加一个变量,例如

class ViewController: UIViewController {
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
var nodeWeCanChange: SCNNode?
}

因此,您的Delegate Callback可能如下所示:

//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. If We Havent Create Our Interactive Node Then Proceed
if nodeWeCanChange == nil{
//a. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//b. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//c. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
nodeWeCanChange = SCNNode(geometry: SCNPlane(width: width, height: height))
//d. Rotate It
nodeWeCanChange?.eulerAngles.x = -.pi/2
//e. Set It's Colour To Red
nodeWeCanChange?.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//f. Add It To Our Node & Thus The Hiearchy
node.addChildNode(nodeWeCanChange!)
}

}
}

现在您有一个参考nodeWeCanChange设置,它的图像随时都很简单!

每个SCNGeometry都有一组材质,它们是:

一组着色属性,用于定义几何图形的外观 渲染时的表面。

在我们的例子中,我们正在寻找diffuse property的材料是:

管理材质对照明的漫反射响应的对象。

然后是内容属性,它们是:

材质属性的可视内容 - 颜色、图像或源 的动画内容。

显然,您需要处理完整的后勤工作,但是假设您将图像存储到UIImage数组中,则一个非常基本的示例可能如下所示,例如:

let imageGallery = [UIImage(named: "StackOverflow"), UIImage(named: "GitHub")]

我创建了一个IBAction,它将根据按下UIButton的标签更改我们SCNNode's Geometry的图像,例如:

/// Changes The Material Of Our SCNNode's Gemeotry To The Image Selected By The User
///
/// - Parameter sender: UIButton
@IBAction func changeNodesImage(_ sender: UIButton){
guard let imageToApply = imageGallery[sender.tag], let node = nodeWeCanChange  else { return}
node.geometry?.firstMaterial?.diffuse.contents = imageToApply
}

这足以为您指明正确的方向......希望对你有帮助...

相关内容

  • 没有找到相关文章

最新更新