Scipy.stats.sem 计算标准误差



为什么我得到不同的结果?

from scipy.stats import sem
import numpy as np
l = [0,2,4,5,6,7]
print(sem(l))
print(np.std(l)/np.sqrt(len(l)))

1.0645812948447542

0.9718253158075502

scipy.stats.sem函数使用默认值ddof=1作为自由度数参数,而numpy.std默认使用ddof=0。这在文档中也突出显示:

ddof 的默认值不同于其他包含 ddof 的例程(如 np.std 和 np.nanstd)使用的默认值 (0)。

因此,您将获得:

>>> print(sem(l))
1.06458129484
>>> print(sem(l, ddof=0))
0.971825315808
>>> print(sem(l, ddof=1))
1.06458129484
>>> print(np.std(l)/np.sqrt(len(l)))
0.971825315808
>>> print(np.std(l, ddof=0)/np.sqrt(len(l)))
0.971825315808
>>> print(np.std(l, ddof=1)/np.sqrt(len(l)))
1.06458129484

最新更新