org.apache.spark.ml.linalg.DenseVector 不能转换为 java.lang.Doubl



有人可以帮我吗,我正在尝试将向量的列值转换为双精度并收到以下错误:org.apache.spark.ml.linalg.DenseVector 不能转换为 java.lang.Double

我基本上在 (0,1( 范围之间规范化了我的值,对于该范围,我必须将双精度类型的简单值转换为密集 Vector。

以下是代码

val dataset =vectorUList.toDF("id")
val assembler = new VectorAssembler()
.setInputCols(Array("id"))
.setOutputCol("features")
val output = assembler.transform(dataset)
println("Assembled columns ")
output.select("id").show(false)
output.printSchema()
val scaler = new MinMaxScaler()
.setInputCol("features")
.setOutputCol("vScaled")
.setMax(1)
.setMin(0)
val ScalarModel =scaler.fit(output)
val scalarData =ScalarModel.transform(output)
scalarData.select("vScaled").show()
val ScaledCol: List[Row] = scalarData.select("vScaled").collect.toList
var listofScaledCol: List[Double] = ScaledCol.map(r => r.getDouble(0))
print(listofScaledCol)

现在将值转换回双精度时,我收到此类型转换错误。

您正在尝试从一行访问向量,修改-From

var listofScaledCol: List[Double] = ScaledCol.map(r => r.getDouble(0))

To

var listofScaledCol: List[Double] = ScaledCol.map(_.getAs[Vector]("vScaled")(0))

最新更新