best_score_的gridsearch cv的AUC得分与gridsearch cv的最佳模型的auc_roc_score不同

问题描述 投票:0回答:1

我对逻辑回归进行了网格搜索,并将得分设置为'roc_auc'。 grid_clf1.best_score_给了我一个0.7557的auc。之后我想绘制最佳模型的ROC曲线。我看到的ROC曲线的AUC为0.50我根本不明白这一点。

我查看了预测的概率,我发现它们都是0.0或1.0。因此,我认为这里出了问题,但我找不到它是什么。

网格搜索cv的代码如下:

clf1 = Pipeline([('RS', RobustScaler()), ('LR', 
     LogisticRegression(random_state=1, solver='saga'))])

params = {'LR__C': np.logspace(-3, 0, 5),
      'LR__penalty': ['l1']}

grid_clf1 = GridSearchCV(clf1, params, scoring='roc_auc', cv = 5, 
      n_jobs=-1)

grid_clf1.fit(X_train, y_train)
grid_clf1.best_estimator_
grid_clf1.best_score_

因此,最佳模型的AUC为0.7557。然后,如果我自己计算模型的AUC:

y_pred_proba = grid_clf1.best_estimator_.predict_probas(X_test)[::,1]

print(roc_auc_score(y_test, y_pred_proba))

这给了我一个0.50的AUC。

python scikit-learn logistic-regression gridsearchcv
1个回答
1
投票

您的示例代码看起来有两个问题:

  1. 您可以比较不同数据集上的ROC_AUC分数。在拟合期间使用列车集,并且在调用roc_auc_score时使用测试集
  2. 使用交叉验证的评分与简单的roc_auc_score函数调用略有不同。它可以扩展到np.mean(cross_val_score(...))

因此,如果考虑到这一点,您将获得相同的评分值。您可以使用the colab notebook作为参考。

© www.soinside.com 2019 - 2024. All rights reserved.