如何从Spark(Databricks)JDBC python在SQL服务器上运行存储过程



我有一个在SQL SERVER中使用Databricks中的以下Scala代码执行存储过程的工作示例。但我想知道在PythonJDBC中是否也可以这样做?我做不到。请参阅以下示例:

SCALA中的工作代码

import java.sql.DriverManager
import java.sql.Connection
import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.{StructType, StructField, StringType,IntegerType};
import java.sql.ResultSet
val username = "xxxxx"
val pass = "xxxxx"
val url = "jdbc:sqlserver://xxx.database.windows.net:1433;databaseName=xxx"
val table = "SalesLT.Temp3"
val query = s"EXEC sp_truncate_table '${table}'"
val conn = DriverManager.getConnection(url, username, pass)
val rs = conn.createStatement.execute(query)

到目前为止的Python代码

connector_type_sql_server_driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver"
jdbc_hostname = "xxxx.database.windows.net"
jdbc_database = "xxxx"
jdbc_port = 1433
jdbc_url = f"jdbc:sqlserver://{jdbc_hostname}:{jdbc_port};database={jdbc_database}"
jdbc_spa_user = "xxx"
jdbc_spa_password = "xxx"

query = "EXEC sys.sp_tables"
query2 = "SELECT * FROM sys.tables"
jdbc_db = (spark.read
.format("jdbc")
.option("driver", connector_type_sql_server_driver)
.option("url", jdbc_url)
.option("query", query)
.option("user", jdbc_spa_user)
.option("password", jdbc_spa_password)
.load()
)

python中的query2正在运行,但以EXEC开头的任何内容似乎都不起作用。。。

如果这是不可能的,有人能详细解释为什么它可以在Scala中完成,而不能在Python中的databricks中完成吗?我想让它与Python一起工作,因为其他笔记本电脑都已经使用Python了。。

谢谢。

/Baatch

是的,您可能只需要访问JDBC的底层Java类,比如:

# the first line is the main entry point into JDBC world
driver_manager = spark._sc._gateway.jvm.java.sql.DriverManager
connection = driver_manager.getConnection(mssql_url, mssql_user, mssql_pass)
connection.prepareCall("EXEC sys.sp_tables").execute()
connection.close()

最新更新