用于TB大小数据的大规模体积渲染和可视化库



我想可视化几GB到几TB之间的3D数据量。一个解决方案是推出我自己的,但这可能需要一些时间。为了避免这种情况,我目前正在探索目前可用的解决方案。我研究得越多,发现的软件就越多。一些例子包括ParaView/VTKOSPRayEmbreeSplotchNVIDIA GVDB/OptiX等。

其中一些软件为可视化和数据操作提供了完整的解决方案(例如ParaView/VTK)。其他主要关注高性能渲染(例如Embree)。其他提供用于渲染的低级API(例如,GVDB/OptiX)。有些针对特定硬件进行了优化(例如,针对英特尔硬件的Embree,针对NVIDIA GPU的GVDB/Optix)。其他包括用于分布式渲染的基础设施(例如ParaView/VTK),这使他们能够声称自己可以渲染数万亿字节大小的数据集,而其他则将此功能留给用户。可以说,使用一些巧妙的LOD和核心外算法,也可以在一台机器上执行数万亿字节大小的数据集体积渲染,但让我们将其留给另一个讨论。最后,还有大量来自大学研究项目和学术界的软件,这些软件是为解决特定问题而构建的,不再进行维护。

我想知道这里是否有人有使用此类软件的经验,并能就哪些软件/库值得尝试给我一些建议。我的理想要求如下:

  • 以交互帧速率(比如说>10 FPS)对高达数TB的数据集执行体积渲染/光线行进
  • 利用不同的并行架构(CPU、GPU、多个节点)
  • 实现/支持细节级别的算法
  • 能够在渲染场景中添加小部件。例如,轴箭头、剪裁平面等
  • 以提供公共API使用的库的形式。在Python中理想情况下,但我想自己制作一个围绕C/C++API的Python包装器是非常可行的
  • 它们得到了积极维护,并有适当的文档

我不一定要寻找一个包含以上所有内容的软件库,但是,越多越好!:)

提前谢谢。

AstrOne,

Ingo在这里,来自OSPRay团队;-)

"兆字节"听起来很有趣。。。。很乐意看看你想用OSPRay渲染的数据类型。。。给我发封电子邮件!

相关内容

  • 没有找到相关文章

最新更新