from pyspark.ml.feature import MinMaxScaler
from pyspark.ml.linalg import Vectors
df = spark.createDataFrame([
(0, Vectors.dense([5.0, 0.1, -1.0]),),
(1, Vectors.dense([2.0, 2.1, 1.0]),),
(2, Vectors.dense([3.0, 10.1, 7.0]),)
], ["id", "features"])
scaler = MinMaxScaler(inputCol="features", outputCol="scaledFeatures")
scaler_model = scaler.fit(df)
scaled_data = scalerModel.transform(df)
scaled_data
是转换后的数据。
拟合机器学习模型后,如何进行逆尺度分析结果?
MinMaxScaler
将缩放的要素添加为新的scaledFeatures
列,因此您的实际数据不会丢失。
可以使用features
列来分析scaledFeatures
输出列,然后再将其用于机器学习模型。