如何在使用spark ml训练模型时处理来自文本文件的数百列数据



我有一个包含数百列的文本文件,但是这些列没有列名。

第一列是标签,其他列是特征。我读过一些必须为列车数据指定列名的示例。但是要指定所有的名称是相当麻烦的,因为有太多的列。

我该如何处理这种情况?

您可以将VectorAssemplerlist comprehension结合使用来构建模型训练的数据。考虑这个具有两个特征列(x1x2)和响应变量y的示例数据。

df = sc.parallelize([(5, 1, 6),
                     (6, 9, 4),
                     (5, 3, 3),
                     (4, 4, 2),
                     (4, 5, 1),
                     (2, 2, 2),
                     (1, 7, 3)]).toDF(["y", "x1", "x2"])

首先,我们创建一个非"y"的列名列表:

colsList = [x for x in df.columns if x!= 'y']
现在,我们可以使用VectorAssembler:
from pyspark.ml.feature import VectorAssembler
vectorizer = VectorAssembler()
vectorizer.setInputCols(colsList)
vectorizer.setOutputCol("features")
output = vectorizer.transform(df)
output.select("features", "y").show()
+---------+---+
| features|  y|
+---------+---+
|[1.0,6.0]|  5|
|[9.0,4.0]|  6|
|[3.0,3.0]|  5|
|[4.0,2.0]|  4|
|[5.0,1.0]|  4|
|[2.0,2.0]|  2|
|[7.0,3.0]|  1|
+---------+---+

最新更新