首先,我用Spark1.6.1创建一个表:
hiveContext.createDataFrame(rows, schema).write.mode(SaveMode.Append).saveAsTable(tableName)
第二,当我从桌子上查询时:
hive> select dt from tablename limit 200;
它打印了许多日志:2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:块在1 ms中读取内存中。行计数= 132016-12-9 10:41:11警告:parquet.hadoop.parquetrecordReader:由于上下文而无法初始化计数器,而不是taskInputOutputcontext的一个实例,而是is org.apache.hadoop.mapreduce.mapreduce.task.taskement.taskementemptcontemptcontemptcontemptcontectcontextimplempl2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:RecordReader初始化将读取20个记录。2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:在第0章中。阅读下一个块2016-12-9 10:41:11信息:parquet.hadoop.internalparquetrecordreader:块在1 ms中读取内存中。行计数= 202016-12-9 10:41:11警告:parquet.hadoop.par 2016-11-26
2016-11-26
2016-09-02
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
2016-11-13
请参阅BOLD的字体,这是我结果的一部分。但是它与日志信息
混合在一起但是,当查询这个问题时:
hive> select dt from tablename group dt;
很好
如何抑制我不需要的日志?
您需要使用此功能" SparkContext.SetLoglevel(" warn")"?