使用 pentaho java api 生成一个报告,用于以编程方式传递 hdfs 文件路径的 hdfs 文件



我是Pentaho的新手.我已经安装了Pentaho企业版,并为BigData设置了所需的配置。在我的 java Web 应用程序中,我已经使用 maven 下载了生成报告所需的 pentaho-kettle jars。是否可以通过使用报告 API 动态或编程方式传递 hdfs 文件路径来生成 hdfs 文件的报告?如果是,需要采取哪些步骤才能完成此操作?

提前谢谢。

您可以在服务器端拥有 pentaho 报告。为了能够查询 hdfs - 此报告应查询 PDI 转换/作业。当它尝试查询它时 - 它会启动转换。因此,您必须拥有完整的 PDI 基础架构才能执行此作业/转换。单独的罐子无济于事,因为PDI(也称为勺子的pentaho水壶)是"装置"而不是图书馆。它使用"填充码"作为插件与hdfs进行交互。此填充程序必须具有正确的文件夹和配置文件等结构。在企业版中,通常所有这些都隐藏在企业服务器的后台。

如果您想使用"我自己的 java Web 应用程序" - 让一切正常工作的最简单方法(从我的角度来看)是创建一个水壶转换,安装 Carte 服务器(与您的 Web 服务器或其他机器相邻),配置 hdfs 步骤在此 Carte 服务器上运行。

从技术上讲,当您在 Web 应用程序的上下文中启动此类报告时,这将触发水壶转换执行。这也将调用 菜单 服务器以获取 hdfs 步骤。由于 Carte 服务器具有正确的 PDI 安装,以便能够与 HDFS 交互 - 它将获取 HDFS 数据并将其发送回您的应用程序。自从您的 Web 应用程序运行报告以来,此数据将通过网络传输:报告运行转换、转换从 菜单 服务器获取数据, 菜单 服务器从 hdfs 获取数据。

您可以考虑拥有一个 菜单 服务器作为本地主机只能访问,同时将您的 Web 应用程序暴露给外部请求。希望它会有所帮助。

希望它会有所帮助。

相关内容

  • 没有找到相关文章

最新更新