Matlab和Python为PCA产生不同的结果



我正在使用PCA,我发现Python中的sklearn中的PCA和Matlab中的pca()产生了不同的结果。这是我正在使用的测试矩阵。

a = np.array([[-1,-1], [-2,-1], [-3, -2], [1,1], [2,1], [3,2]])

对于Python sklearn,我得到了

p = PCA()
print(p.fit_transform(a))
[[-1.38340578  0.2935787 ]
[-2.22189802 -0.25133484]
[-3.6053038   0.04224385]
[ 1.38340578 -0.2935787 ]
[ 2.22189802  0.25133484]
[ 3.6053038  -0.04224385]]

对于 Matlab,我得到了

pca(a', 'Centered', false)
[0.2196    0.5340
0.3526   -0.4571
0.5722    0.0768
-0.2196   -0.5340
-0.3526    0.4571
-0.5722   -0.0768]

为什么观察到这种差异?


谢谢丹的回答。结果现在看起来相当合理。但是,如果我使用随机矩阵进行测试,似乎 Matlab 和 Python 产生的结果不是彼此的标量倍数。为什么会这样?

test matrix a:
[[ 0.36671885  0.77268624  0.94687497]
[ 0.75741855  0.63457672  0.88671836]
[ 0.20818031  0.709373    0.45114135]
[ 0.24488718  0.87400025  0.89382836]
[ 0.16554686  0.74684393  0.08551401]
[ 0.07371664  0.1632872   0.84217978]]

蟒蛇结果:

p = PCA()
p.fit_transform(a))
[[ 0.25305509 -0.10189215 -0.11661895]
[ 0.36137036 -0.20480169  0.27455458]
[-0.25638649 -0.02923213 -0.01619661]
[ 0.14741593 -0.12777308 -0.2434731 ]
[-0.6122582  -0.08568121  0.06790961]
[ 0.10680331  0.54938026  0.03382447]]

矩阵实验室结果:

pca(a', 'Centered', false)
0.504156973865138   -0.0808159771243340 -0.107296852182663
0.502756555190181   -0.174432053627297  0.818826939851221
0.329948209311847   0.315668718703861   -0.138813345638127
0.499181592718705   0.0755364557146097  -0.383301081533716
0.232039797509016   0.694464307249012   -0.0436361728092353
0.284905319274925   -0.612706345940607  -0.387190971583757

感谢丹在整个过程中的帮助。事实上,我发现这是对Matlab函数的误用。默认情况下,Matlab 返回主成分系数。使用 [~, score] = pca(a, 'Centered', true) 将获得与 Python 相同的结果。

PCA 处理特征向量。只要向量是平行的,大小就无关紧要(只是不同的归一化)。

在您的情况下,两者是彼此的标量倍数。尝试(在 MATLAB 中)

Python = [-1.38340578  0.2935787 
          -2.22189802 -0.25133484
          3.6053038   0.04224385
          1.38340578 -0.2935787 
          2.22189802  0.25133484
          3.6053038  -0.04224385]
Matlab = [ 0.2196    0.5340
           0.3526   -0.4571
           0.5722    0.0768
          -0.2196   -0.5340
          -0.3526    0.4571
          -0.5722   -0.0768]

现在请注意,B(:,1)*-6.2997基本上等于 A(:,1) 。或者换一种说法

A(:,n)./B(:,n)

为您提供(大致)每行相同的数字。这意味着两个向量具有相同的方向(即它们只是彼此的标量倍数),因此您得到的是相同的主分量。

有关另一个示例,请参见此处:https://math.stackexchange.com/a/1183707/118848

相关内容

  • 没有找到相关文章

最新更新