我在我的实验室设置中安装了以下堆栈:
Hadoop 2.7.1- 蜂巢1.2.2
- HBase 1.7.1上
- 麒麟3.1.2
我现在尝试从麒麟自己提供的样本数据集构建一个立方体,并且该过程在78.26%"转换立方体数据到hfile"时卡住了。日志没有显示任何错误,它在几个小时后失败,可能是因为超时。
你们中有人遇到那个问题并设法解决了吗?
查看文档,这种行为是这样描述的:
在某些Hadoop版本中,可能会遇到如下错误" Convert Cuboid Data to HFile ":
Caused by: java.lang.RuntimeException: Could not create interface org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory Is the hadoop compatibility jar on the classpath?
规定的解决方案是将hbase-hadoop2-compat-*.jar
和hbase-hadoop-compat-*.jar
添加到$KYLIN_HOME/spark/jars中(这两个jar文件可以在HBase的lib文件夹中找到);如果你已经制作了Spark assembly jar并上传到HDFS,你可能需要重新打包并重新上传到HDFS。