我正在使用SaveMode选项运行Spark SQL示例,但收到以下错误。
val df = sqlContext.read.format("json").load("/user/root/spark/data/people.json")
df.select("name","age").write.format("json").save("Output",SaveMode.ErrorIfExist)
<console>:35: error: overloaded method value save with alternatives:
()Unit <and>
(path: String)Unit
cannot be applied to (String, org.apache.spark.sql.SaveMode)
df.select("name", "age").write.format("json").save("Output",SaveMode.ErrorIfExists
我检查了文档,它说保存模式已被弃用。我该如何解决这个问题?
任何建议。
您可以使用
DataFrameWriter.mode
方法:
df.write.mode("error").save(...)
或
df.write.mode(SaveMode.ErrorIfExists).save(...)