如何在使用镶木木格式的蜂巢表查询时登录



首先,我用Spark1.6.1创建一个表:

hiveContext.createDataFrame(rows, schema).write.mode(SaveMode.Append).saveAsTable(tableName)

第二,当我从桌子上查询时:

hive> select dt from tablename limit 200;

它打印了许多日志:2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:块在1 ms中读取内存中。行计数= 132016-12-9 10:41:11警告:parquet.hadoop.parquetrecordReader:由于上下文而无法初始化计数器,而不是taskInputOutputcontext的一个实例,而是is org.apache.hadoop.mapreduce.mapreduce.task.taskement.taskementemptcontemptcontemptcontemptcontectcontextimplempl2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:RecordReader初始化将读取20个记录。2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:在第0章中。阅读下一个块2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:块在1 ms中读取内存中。行计数= 202016-12-9 10:41:11警告:parquet.hadoop.par 2016-11-26

2016-11-26
2016-09-02
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13

请参阅BOLD的字体,这是我结果的一部分。但是它与日志信息

混合在一起

但是,当查询这个问题时:

hive> select dt from tablename group dt;

很好

如何抑制我不需要的日志?

您需要使用此功能" SparkContext.SetLoglevel(" warn")"?

最新更新