我一直在尝试使用
shap
包。我想从我的逻辑回归模型中确定形状值。与 TreeExplainer
相反,LinearExplainer
需要所谓的掩蔽器。这个掩码器到底有什么作用,独立掩码器和分区掩码器有什么区别?
此外,我对测试集中的重要功能很感兴趣。然后我是否将掩蔽器安装在训练集或测试集上?下面您可以看到一段代码。
model = LogisticRegression(random_state = 1)
model.fit(X_train, y_train)
masker = shap.maskers.Independent(data = X_train)
**or**
masker = shap.maskers.Independent(data = X_test)
explainer = shap.LinearExplainer(model, masker = masker)
shap_val = explainer(X_test)```
Masker 类提供背景数据来“训练”你的解释器。即,在:
explainer = shap.LinearExplainer(model, masker = masker)
您正在使用由 masker 确定的背景数据(您可以通过访问
masker.data
属性来查看使用了哪些数据)。您可以在此处或此处阅读更多有关“模型真实”或“数据真实”的解释。
如上所述,从计算角度来看,您可以同时执行以下两项操作:
masker = shap.maskers.Independent(data = X_train)
或
masker = shap.maskers.Independent(data = X_test)
explainer = shap.LinearExplainer(model, masker = masker)
但从概念上讲,我认为以下内容更有意义:
masker = shap.maskers.Independent(data = X_train)
explainer = shap.LinearExplainer(model, masker = masker)
这类似于通常的
train/test
范例,您可以在训练数据上训练模型(和解释器),并尝试预测(和解释)您的测试数据。
与问题无关。为您采样数据的 masker 的另一种选择是明确提供可能允许比较 2 个数据点的背景:用于比较的点和感兴趣的点,就像在 this 笔记本中一样。通过这种方式,人们可以找出为什么 2 个看似相似的数据点被不同地分类。