如何在Spark Mongo Connector中将JavaRDD<Tuple2<Object,BSONObject>>转换为DataFrame?



我有一个JavaRDD<Tuple2<Object, BSONObject>>

SparkContext sc = new SparkContext()
Configuration config = new Configuration();
config.set("mongo.input.uri","mongodb://localhost:27017:testDB.testCollection);
JavaRDD<Tuple2<Object, BSONObject>> mongoRDD = sc.newAPIHadoopRDD(config, MongoInputFormat.class, Object.class,
            BSONObject.class).toJavaRDD();

如何将此mongoRDD转换为DataFrame,以便我可以在其上运行SQL查询?

通过导入SQLcontext,您可以使用toDF,它需要一个列名列表作为参数。

相关内容

  • 没有找到相关文章

最新更新