SPARK SQL可保护的返回空的结果



我正在使用以下代码将数据创建/插入Spark SQL中的蜂巢表:

val sc = SparkSession
  .builder()
  .appName("App")
  .master("local[2]")
  .config("spark.sql.warehouse.dir", "file:///tmp/spark-warehouse")
  .enableHiveSupport()
  .getOrCreate()
// actual code
result.createOrReplaceTempView("result")
result.write.format("parquet").partitionBy("year", "month").mode(SaveMode.Append).saveAsTable("tablename")

没有错误的情况下运行。result.show(10)确认了这一点。输入文件是本地FS上的CSV。

它在./spark-warehouse/tablename/下创建Parquet文件,并使用正确的创建表语句。

,在Hive中创建表
git:(master) ✗ tree
.
└── tablename
    ├── _SUCCESS
    └── year=2017
        └── month=01
            ├── part-r-00013-abaea338-8ed3-4961-8598-cb2623a78ce1.snappy.parquet
            ├── part-r-00013-f42ce8ac-a42c-46c5-b188-598a23699ce8.snappy.parquet
            ├── part-r-00018-abaea338-8ed3-4961-8598-cb2623a78ce1.snappy.parquet
            └── part-r-00018-f42ce8ac-a42c-46c5-b188-598a23699ce8.snappy.parquet

蜂巢:

hive> show create table tablename;
OK
CREATE TABLE `tablename`(
  `col` array<string> COMMENT 'from deserializer')
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
WITH SERDEPROPERTIES (
  'path'='file:/Users/IdeaProjects/project/spark-warehouse/tablename')
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.SequenceFileInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat'
LOCATION
  'file:/tmp/spark-warehouse/tablename'
TBLPROPERTIES (
  'EXTERNAL'='FALSE',
  'spark.sql.sources.provider'='parquet',
  'spark.sql.sources.schema.numPartCols'='2',
  'spark.sql.sources.schema.numParts'='1',
  'spark.sql.sources.schema.part.0'='{ 
  // fields
  }',
  'spark.sql.sources.schema.partCol.0'='year',
  'spark.sql.sources.schema.partCol.1'='month',
  'transient_lastDdlTime'='1488157476')

但是,表是空的:

hive> select count(*) from tablename;
...
OK
0
Time taken: 1.89 seconds, Fetched: 1 row(s)

使用的软件:Spark 2.1.0,带有Spark-SQL和Spark-Hive_2.10,Hive 2.10和MySQL Metastore,Hadoop 2.70,MacOS 10.12.3

SPARK SQL分区与Hive不兼容。此问题记录在Spark-14927。

作为推荐的解决方法,您可以使用Hive创建分区表,只能从Spark插入。

添加新分区时,您只需要运行MSCK REPAIR TABLE即可。参见Hive Docs:https://cwiki.apache.org/confluence/display/hive/languagemanual dddl#languagemanualddl-recoverpartitions(msckrepairtable)

相关内容

  • 没有找到相关文章

最新更新