SaveMode 在 Spark SQL 中不起作用



我正在使用SaveMode选项运行Spark SQL示例,但收到以下错误。

val df = sqlContext.read.format("json").load("/user/root/spark/data/people.json")
df.select("name","age").write.format("json").save("Output",SaveMode.ErrorIfExist)

<console>:35: error: overloaded method value save with alternatives:
  ()Unit <and>
  (path: String)Unit
 cannot be applied to (String, org.apache.spark.sql.SaveMode)
              df.select("name", "age").write.format("json").save("Output",SaveMode.ErrorIfExists

我检查了文档,它说保存模式已被弃用。我该如何解决这个问题?

任何建议。

您可以使用

DataFrameWriter.mode方法:

df.write.mode("error").save(...)

df.write.mode(SaveMode.ErrorIfExists).save(...)

相关内容

  • 没有找到相关文章

最新更新