Pyodbc在sp_preexec之后调用sp_unprepare.这会影响参数化查询的性能吗?



SqlAlchemy + pymssql。原始参数化查询是否使用相同的执行计划?

我从pymssql切换到pyodbc试图将参数化查询发送到SQL Server。pyodbc与微软驱动程序的技巧,但有些东西似乎对我来说很奇怪:

declare @p1 int
set @p1=6
exec sp_prepexec @p1 output,N'@P1 nvarchar(6),@P2 bigint,@P3 bigint,@P4 bigint',N'
                SELECT *
                FROM CC_sold
                WHERE id_contract =@P1
                    AND id_tip_cont=@P2
                    AND CC_sold.anul =@P3
                    AND CC_sold.luna =@P4
                ORDER BY CC_sold.anul, CC_sold.luna DESC
            ',N'176914',6,2016,9
select @p1
exec sp_unprepare 6

我的担忧与这句话有关:

exec sp_unprepare 6

如果我理解正确的话,这将取消查询执行计划,并且不会从查询参数化中获得任何优化。是这样吗?

我做了一些测试,您不必担心。当cursor对象关闭时,pyodbc只发送一个sp_unprepare(对于最后执行的sp_prepexec)。也就是说,它不发送sp_unprepare 每个 sp_prepexec

此外,实际的计时测试揭示了pyodbc(显然可以利用缓存的执行计划)和pymssql(显然不能)之间的性能差异。使用下面的代码…

crsr = conn.cursor()
crsr.execute("DBCC FREEPROCCACHE")
if 'pyodbc' in repr(conn):
    sql = "SELECT COUNT(*) AS n FROM table1 WHERE cola=? AND colb=? AND colc=? AND cold=?"
else:
    sql = "SELECT COUNT(*) AS n FROM table1 WHERE cola=%s AND colb=%s AND colc=%s AND cold=%s"
t0 = time.time()
limit = 10
for a in range(limit):
    for b in range(limit):
        for c in range(limit):
            for d in range(limit):
                params = (a, b, c, d)
                crsr.execute(sql, params)
                n = crsr.fetchone()[0]
print(time.time() - t0)
crsr.close()
conn.close()

…对于limit = 10,四个嵌套的for循环总共运行10,000个查询。在我使用本地SQL Server实例的Windows测试机器上,pymssql执行大约需要130秒(刚刚超过2分钟),而pyodbc始终在5秒内运行相同的代码。

最新更新