使用 Hololens 空间定位点在远程应用程序中呈现空间映射



通过使用Unity 2018.4.12f中的MRTK_V2,我尝试使用第一代全息建筑进行空间映射。Hololens 提供我希望在远程位置(在扫描的建筑物外运行 Unity 应用程序的计算机(近乎实时(大约 10 秒(呈现的空间映射数据。这样做的想法是,远程位置的人可以跟踪扫描过程,并在他/她的眼前看到建筑物的3D模型"建立",而Hololens用户也可以在3D模型中被跟踪。

我已经有了映射和跟踪功能,我能够通过套接字发送序列化的网格并在另一端反序列化它们。但是,我无法在接收端的正确位置渲染网格。

在发送网格之前,我尝试将各个网格的顶点从局部空间转换为世界空间,但这不起作用,因为网格的位置由连接到它的世界锚点控制。断开定位点的连接似乎不利,因为这会导致数据出现大量漂移。我想将所有网格连接到空间中的单个点,将它们转换为世界空间,但以我目前对空间映射概念的理解,这是不可能的。

现在我想知道我是否可以相对于接收端的世界定位点渲染网格,例如通过使用 azure 空间定位点。我可以想象这是不可能的,因为锚点可能需要与现实世界的连接。此外,锚点确实会在运行时更改其位置,因此需要不断更新,从而使锚点的使用不太理想。

任何帮助将不胜感激!

对于这个问题,我们现在有一个答案,可以通过 Azure 空间定位点 2.0 SDK 更新来完成。

粗略重新定位作为 ASA2.0

的一项新功能添加到 ASA2.0 中,在创建和查询定位点时,我们的新 SDK 利用非视觉传感器信号来实现这些场景,GPS、Wi-Fi 接入点和蓝牙信标数据作为此新功能的一部分。

有关如何使用设备上的传感器创建和定位定位锚点,请在此处阅读更多内容。

最新更新