pyspark插入使用spark.read方法失败


def QueryDB(sqlQuery):
jdbcUrl = mssparkutils.credentials.getSecret("param1","DBJDBCConntring","param3")
spark=SparkSession.builder.appName("show results").getOrCreate()

dbcdf = (spark.read.format("jdbc")
.option("url", jdbcUrl)
.option("query", sqlQuery)
.load()
)
return jdbcdf  
df= QueryDB("INSERT INTO schema.table1 (column1, column2) output inserted.column1 values('one', 'two')")
df.show()

笔记本运行时没有任何错误,但没有插入任何行。要插入到表中的任何建议或示例代码。

spark.read.format("jdbc")用于读取JDBC。如果你想将数据插入JDBC,你会想要像这样的

jdbcDF.write 
.format("jdbc") 
.option("url", "jdbc:postgresql:dbserver") 
.option("dbtable", "schema.tablename") 
.option("user", "username") 
.option("password", "password") 
.save()

最新更新