Spark DataFrame groupBy



我有Spark Java,看起来像这样。代码使用JDBC从Oracle表中汲取数据并显示GroupBy输出。

DataFrame jdbcDF = sqlContext.read().format("jdbc").options(options).load();
jdbcDF.show();   
jdbcDF.groupBy("VA_HOSTNAME").count().show();
Long ll = jdbcDF.count();
System.out.println("ll="+ll);

当我运行代码时,jdbcDF.show();正在工作,而groupBy和计数没有打印任何东西,没有错误。

我的列名是正确的。我尝试打印该列并起作用,但是当groupBy它不起作用时。

有人可以帮助我完成DataFrame输出吗?我正在使用Spark 1.6.3。

您可以尝试

import org.apache.spark.sql.functions.count
jdbcDF.groupBy("VA_HOSTNAME").agg(count("*")).show()

相关内容

  • 没有找到相关文章

最新更新