我有一个来自服务器并存储在图库中的图像列表。我想选择任何图像并使用ARKit放置在实时墙上,并希望将图像转换为3d图像tp执行缩放,移动图像等操作。
任何人都可以指导如何在AR中创建自定义对象吗?
要检测ARKit
中的垂直表面(例如墙壁(,您需要首先设置ARWorldTrackingConfiguration
,然后在应用中启用planeDetection
。
因此,在您的Class Declaration
下,您将创建以下变量:
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
然后初始化您的ARSession
,例如ViewDidLoad
:
override func viewDidLoad() {
super.viewDidLoad()
//1. Set Up Our ARSession
augmentedRealityView.session = augmentedRealitySession
//2. Assign The ARSCNViewDelegate
augmentedRealityView.delegate = self
//3. Set Up Plane Detection
configuration.planeDetection = .vertical
//4. Run Our Configuration
augmentedRealitySession.run(configuration, options: [.resetTracking, .removeExistingAnchors])
}
现在您已全部设置为检测到的垂直平面,您需要挂钩到以下ARSCNViewDelegate
方法:
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) { }
这很简单:
告知委托与新 AR 对应的 SceneKit 节点 定位点已添加到场景中。
在这种方法中,我们将显式查找已检测到的任何ARPlaneAnchors
,这些为我们提供:
有关真实世界公寓的位置和方向的信息 在世界跟踪 AR 会话中检测到的表面。
因此,将SCNPlane
放置在检测到的垂直平面上非常简单:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//2. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//3. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
let imageHolder = SCNNode(geometry: SCNPlane(width: width, height: height))
//4. Rotate It
imageHolder.eulerAngles.x = -.pi/2
//5. Set It's Colour To Red
imageHolder.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//4. Add It To Our Node & Thus The Hiearchy
node.addChildNode(imageHolder)
}
}
将此应用于您的案例:
在您的情况下,我们需要做一些额外的工作,因为您希望能够允许用户将图像应用于垂直平面。
因此,您最好的选择是使刚刚添加的节点添加一个变量,例如
class ViewController: UIViewController {
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
var nodeWeCanChange: SCNNode?
}
因此,您的Delegate Callback
可能如下所示:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. If We Havent Create Our Interactive Node Then Proceed
if nodeWeCanChange == nil{
//a. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//b. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//c. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
nodeWeCanChange = SCNNode(geometry: SCNPlane(width: width, height: height))
//d. Rotate It
nodeWeCanChange?.eulerAngles.x = -.pi/2
//e. Set It's Colour To Red
nodeWeCanChange?.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//f. Add It To Our Node & Thus The Hiearchy
node.addChildNode(nodeWeCanChange!)
}
}
}
现在您有一个参考nodeWeCanChange
设置,它的图像随时都很简单!
每个SCNGeometry
都有一组材质,它们是:
一组着色属性,用于定义几何图形的外观 渲染时的表面。
在我们的例子中,我们正在寻找diffuse property
的材料是:
管理材质对照明的漫反射响应的对象。
然后是内容属性,它们是:
材质属性的可视内容 - 颜色、图像或源 的动画内容。
显然,您需要处理完整的后勤工作,但是假设您将图像存储到UIImage数组中,则一个非常基本的示例可能如下所示,例如:
let imageGallery = [UIImage(named: "StackOverflow"), UIImage(named: "GitHub")]
我创建了一个IBAction
,它将根据按下UIButton
的标签更改我们SCNNode's Geometry
的图像,例如:
/// Changes The Material Of Our SCNNode's Gemeotry To The Image Selected By The User
///
/// - Parameter sender: UIButton
@IBAction func changeNodesImage(_ sender: UIButton){
guard let imageToApply = imageGallery[sender.tag], let node = nodeWeCanChange else { return}
node.geometry?.firstMaterial?.diffuse.contents = imageToApply
}
这足以为您指明正确的方向......希望对你有帮助...