Spark-etl 将数据加载到累积故障中



当我学会使用geotrellis将数据加载到伏隔中时,我遇到了一个问题:

线程"main"中的异常 geotrellis.spark.io.package$LayerWriteError: Failed to write 图层(名称 = "示例",缩放 = 13(...... rg.apache.accumulo.core.client.AccumuloException: 文件:/geotrellis-ingest/726314aa-5b72-4f9c-9c41-f9521a045603-O45VGIHPpi: java.io.IOException: 文件:/geotrellis-ingest/726314aa-5b72-4f9c-9c41-f9521a045603-O45VGIHPpi 不在为累积配置的卷中

这是我的配置文件的图像:配置

配置

配置

我不

熟悉 geotrellis 或 spark,但错误消息表明正在尝试跨文件系统(卷(批量导入 Accumulo,而 Accumulo 不支持。

批量导入的文件必须位于已配置为在 Accumulo 中使用的卷上。Accumulo 会将同一卷中的文件移动到其自己的目录中,但不会跨卷移动它们。要配置卷以在 Accumulo 中使用,请参阅 instance.volumes 的文档。

相关内容

  • 没有找到相关文章

最新更新