我想可视化几GB到几TB之间的3D数据量。一个解决方案是推出我自己的,但这可能需要一些时间。为了避免这种情况,我目前正在探索目前可用的解决方案。我研究得越多,发现的软件就越多。一些例子包括ParaView/VTK
、OSPRay
、Embree
、Splotch
、NVIDIA GVDB/OptiX
等。
其中一些软件为可视化和数据操作提供了完整的解决方案(例如ParaView/VTK
)。其他主要关注高性能渲染(例如Embree
)。其他提供用于渲染的低级API(例如,GVDB/OptiX
)。有些针对特定硬件进行了优化(例如,针对英特尔硬件的Embree
,针对NVIDIA GPU的GVDB/Optix
)。其他包括用于分布式渲染的基础设施(例如ParaView/VTK
),这使他们能够声称自己可以渲染数万亿字节大小的数据集,而其他则将此功能留给用户。可以说,使用一些巧妙的LOD和核心外算法,也可以在一台机器上执行数万亿字节大小的数据集体积渲染,但让我们将其留给另一个讨论。最后,还有大量来自大学研究项目和学术界的软件,这些软件是为解决特定问题而构建的,不再进行维护。
我想知道这里是否有人有使用此类软件的经验,并能就哪些软件/库值得尝试给我一些建议。我的理想要求如下:
- 以交互帧速率(比如说>10 FPS)对高达数TB的数据集执行体积渲染/光线行进
- 利用不同的并行架构(CPU、GPU、多个节点)
- 实现/支持细节级别的算法
- 能够在渲染场景中添加小部件。例如,轴箭头、剪裁平面等
- 以提供公共API使用的库的形式。在Python中理想情况下,但我想自己制作一个围绕C/C++API的Python包装器是非常可行的
- 它们得到了积极维护,并有适当的文档
我不一定要寻找一个包含以上所有内容的软件库,但是,越多越好!:)
提前谢谢。
AstrOne,
Ingo在这里,来自OSPRay团队;-)
"兆字节"听起来很有趣。。。。很乐意看看你想用OSPRay渲染的数据类型。。。给我发封电子邮件!