如何在 pyspark 中获取每个 PCA 组件的解释方差



我所知,pyspark提供了PCA API,如下所示:

from pyspark.ml.feature import PCA
pca = PCA(k=3, inputCol="features", outputCol="pcaFeatures")
model = pca.fit(data_frame) 

然而,在现实中,我发现解释方差比率的使用更为广泛。例如,在 sklearn 中:

from sklearn.decomposition import PCA
pca_fitter = PCA(n_components=0.85)

有谁知道如何在 pyspark 中实现解释方差比?谢谢!

从 Spark 2.0 开始,PCAModel包含一个explainedVariance方法;来自文档:

explainedVariance

返回由每个主分量解释的方差比例向量。

版本 2.0.0 中的新功能。

以下是根据文档改编k=2主要组件和玩具数据的示例:

spark.version
# u'2.2.0'
from pyspark.ml.linalg import Vectors
from pyspark.ml.feature import PCA
data = [(Vectors.sparse(5, [(1, 1.0), (3, 7.0)]),),
...     (Vectors.dense([2.0, 0.0, 3.0, 4.0, 5.0]),),
...     (Vectors.dense([4.0, 0.0, 0.0, 6.0, 7.0]),)]
df = spark.createDataFrame(data,["features"])
pca = PCA(k=2, inputCol="features", outputCol="pca_features")
model = pca.fit(df)
model.explainedVariance
# DenseVector([0.7944, 0.2056])

即从我们的k=2主成分来看,第一个解释了 79.44% 的方差,而第二个解释了剩余的 20.56%。

最新更新