为什么样本量越大,误差越小?



我手中有一个数据,我通过增加数据的采样频率来增加样本量,而方差是固定的。随着样本量的增加,均方误差减小。

这可能是什么原因呢?为什么它在减少?

估计方差通常与样本量成反比(不一定是线性的)。例如,对于均值估计,方差为$Var[x]=frac{sigma^2}{n}$,其中$sigma$是噪声标准差,$n$是样本量。在这里,你可以看到一个简短的例子。

最新更新