llvm编译器在本地C代码与Python+Numba上的性能比较



我最近做了一些关于Python性能优化的测试。其中一部分是使用SWIG对蒙特卡罗Pi计算进行基准测试,并编译要导入Python的库。另一个解决方案是使用Numba。现在我完全不明白为什么原生C解决方案比Numba更糟糕,即使两者都使用LLVM编译器。所以我想知道我是否做错了什么。

在我的笔记本电脑上运行

native C module: 7.09 s
Python+Numba:    2.75 s

本地C代码

#include "swigtest.h"
#include <time.h>
#include <stdlib.h>
#include <stdio.h>
float monte_carlo_pi(long nsamples)
{
int accGlob=0;
int accLoc=0;
int i,ns;
float x,y;
float res;
float iRMX=1.0/(float) RAND_MAX;

srand(time(NULL));

for(i=0;i<nsamples;i++)
{
x = (float)rand()*iRMX;
y = (float)rand()*iRMX;
if((x*x + y*y) < 1.0) { acc += 1;}      
}    

res = 4.0 * (float) acc / (float) nsamples;

printf("cres = %.5fn",res);

return res;
}

swigtest.i

%module swigtest
%{
#define SWIG_FILE_WITH_INIT
#include "swigtest.h"
%}
float monte_carlo_pi(long nsamples);

编译器调用

clang.exe swigtest.c swigtest_wrap.c -Ofast -o _swigtest.pyd -I C:python37include -shared -L c:python37libs -g0 -mtune=intel -msse4.2 -mmmx

testswig.py

from swigtest import monte_carlo_pi
import time
import os
start = time.time()

pi = monte_carlo_pi(250000000)
print("pi: %.5f" % pi)
print("tm:",time.time()-start)

Python版本与Numba

from numba import jit
import random
import time
start = time.time()
@jit(nopython=True,cache=True,fastmath=True)
def monte_carlo_pi(nsamples: int)-> float:
acc:int = 0
for i in range(nsamples):
x:float = random.random()
y:float = random.random()
if (x * x + y * y) < 1.0: acc += 1

return 4.0 * acc / nsamples

pi = monte_carlo_pi(250000000)
print("pi:",pi)
print("tm:",time.time()-start)

总结至今:

rand()函数似乎消耗了大部分时间。使用像这样的确定性方法

...
ns     = (long) sqrt((double)nsamples)+1;
dx     = 1./sqrt((double)nsamples);
dy     = dx;
...
for(i=0;i<ns;i++)
for(k=0;k<ns;k++)
{
x = i*dx;
y = k*dy;
if((x*x + y*y) < 1.0) { accLoc += 1;}      
}  
...

而不是rand()导致执行时间仅为0.04 s! 显然Numba使用了另一个更有效的随机函数。

最新更新