如何在pyspark中从MLP管道模型中获得最佳超参数?

问题描述 投票:1回答:1

我正在使用pyspark.ml.classification中的MLP分类器。我使用交叉验证将我的MLP模型拟合到数据集,即; ParamGrid方法。我正在使用ParamGrid方法迭代几个超参数。之后我使用Crossvalidation类进行培训并获得最佳超参数。在我尝试从交叉验证对象访问最佳超参数的训练后,我收到一个错误。谁能告诉我如何获得最好的超参数?

from pyspark.ml.classification import MultilayerPerceptronClassifier
layers = [4, 5, 4, 3]
clf = MultilayerPerceptronClassifier(labelCol='label',layers=layers)
pipeline = Pipeline(stages=[clf])
x1 = 'stepSize'
x2 = 'maxIter'
paramGrid = ParamGridBuilder() \
    .addGrid(getattr(clf,x1), [0.1, 0.2]) \
    .addGrid(getattr(clf,x2),[5,10])\
    .build()
evaluator = MulticlassClassificationEvaluator(labelCol='label',
                                                          predictionCol='prediction', metricName='f1')
crossval = CrossValidator(estimator=pipeline,
                                      estimatorParamMaps=paramGrid,
                                      evaluator=evaluator,
                                      numFolds=2)
cvModel = crossval.fit(train_data)
cvModel.bestModel.stages[0]._java_obj.getMaxIter()

错误:

Py4JError: An error occurred while calling o1127.getMaxIter. Trace:
py4j.Py4JException: Method getMaxIter([]) does not exist
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:318)
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:326)
    at py4j.Gateway.invoke(Gateway.java:274)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)

当我使用逻辑回归或随机林分类器时,此cvModel.bestModel.stages [0] ._ java_obj.getMaxIter()正在工作。我只在使用MLP分类器时才收到错误。当我们使用MLP分类器时,有什么方法可以获得最好的超参数吗?

python pyspark apache-spark-ml
1个回答
1
投票

我得到相同的错误运行完全相同的代码,以下帖子中的以下行为我解决了这个问题。

How to extract model hyper-parameters from spark.ml in PySpark?

modelOnly.bestModel.stages[-1]._java_obj.parent().getRegParam()

所以你缺少的部分是“parent()”调用,你需要“parent()”调用。希望这可以帮助!

© www.soinside.com 2019 - 2024. All rights reserved.