如何从多层感知器分类器获取神经元权重



我在pySpark(使用Spark 1.6.0(中使用MLP多类分类器,或多或少遵循这里的例子。

由于我有兴趣训练一次模型,然后在不同的数据集上使用已经训练的模型,我想检索神经元权重(就像这里使用 pickle 包为 python sklearn 解释的那样(。

但是,在阅读文档后,我无法获得模型的权重和内部参数。

如果有帮助,我的代码是:

# Importing PySpark libraries
from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext, HiveContext
from pyspark.ml.classification import MultilayerPerceptronClassifier
from pyspark.ml.evaluation import MulticlassClassificationEvaluator
#%% Codigo inicio
if __name__ == "__main__":
conf  = SparkConf().setAppName("prueba_features")
sc    = SparkContext(conf=conf)
hc    = HiveContext(sc)
sqlc  = SQLContext(sc)
# Load training data
data = sqlc.read.format("libsvm")
.load("/user/sample_multiclass_classification_data.txt")
# print data
print("nData set: n{}".format(data))
# Split the data into train and test
splits = data.randomSplit([0.6, 0.4], 1234)
train = splits[0]
test = splits[1]
# print sets
print("nTraining set: n{}".format(train))
print("nTest set: n{}".format(test))
# specify layers for the neural network:
# input layer of size 4 (features), two intermediate of size 5 and 4
# and output of size 3 (classes)
layers = [4, 5, 4, 3]
# create the trainer and set its parameters
trainer = MultilayerPerceptronClassifier(maxIter=100, layers=layers, blockSize=128, seed=1234)
# train the model
model = trainer.fit(train)
# compute precision on the test set
result = model.transform(test)
predictionAndLabels = result.select("prediction", "label")
evaluator_prec = MulticlassClassificationEvaluator(metricName="precision")
evaluator_rec = MulticlassClassificationEvaluator(metricName="recall")
evaluator_f1 = MulticlassClassificationEvaluator(metricName="f1")
# print fitting precision and results
print("nResults: n{}".format(result))
print("nKPIs")
print("Precision: " + str(evaluator_prec.evaluate(predictionAndLabels)))
print("Recall: " + str(evaluator_rec.evaluate(predictionAndLabels)))
print("F1-score: " + str(evaluator_f1.evaluate(predictionAndLabels)))
# we end the SparkContext
sc.stop()

如果可能的话,有人知道如何使用pySpark MLP来做到这一点吗?

您正在寻找的方法weights

weights

图层的权重。

版本 2.0.0 中的新功能。

正如注释所说,您需要将 Spark 版本更新到至少 2.0 才能使用它。

最新更新