阿帕奇麒麟坚持'Convert Cuboid Data to HFile'



我在我的实验室设置中安装了以下堆栈:

Hadoop 2.7.1
  • 蜂巢1.2.2
  • HBase 1.7.1上
  • 麒麟3.1.2

我现在尝试从麒麟自己提供的样本数据集构建一个立方体,并且该过程在78.26%"转换立方体数据到hfile"时卡住了。日志没有显示任何错误,它在几个小时后失败,可能是因为超时。

你们中有人遇到那个问题并设法解决了吗?

查看文档,这种行为是这样描述的:

在某些Hadoop版本中,可能会遇到如下错误" Convert Cuboid Data to HFile ":

Caused by: java.lang.RuntimeException: 
Could not create  interface org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory 
Is the hadoop compatibility jar on the classpath?

规定的解决方案是将hbase-hadoop2-compat-*.jarhbase-hadoop-compat-*.jar添加到$KYLIN_HOME/spark/jars中(这两个jar文件可以在HBase的lib文件夹中找到);如果你已经制作了Spark assembly jar并上传到HDFS,你可能需要重新打包并重新上传到HDFS。

最新更新