>你知道下面的行是否可以处理jdbc池连接吗?
df.write
.mode("append")
.jdbc(url, table, prop)
你有什么想法吗?谢谢
我不这么认为。
spark.read.jdbc
请求Spark SQL创建一个JDBCRelation。最终执行 buildScan,进而调用JDBCRDD.scanTable
,导致 JdbcUtils.createConnectionFactory(options( 用于JDBCRDD
。
这样,你会看到driver.connect(options.url,options.asConnectionProperties(,除非driver
处理连接池,否则Spark SQL不会这样做。
(刚刚注意到你问了另一个问题(
df.write.jdbc
是相似的。它再次导致使用相同的RDD的JDBCRelation
。