Gradient Boosing 分类器和 XGBoost 用于多类预测

问题描述 投票:0回答:0

我很难理解增强算法如何用于多类标记。 对于二进制分类,我知道将决策相加,然后做出最终预测(StatsQuest 视频很好地解释了所有步骤)。
但是,我没有找到可以非常清楚地解释它如何适用于多类的资源。每一步都会生成 n_classes 树。我在其他一些帖子中看到每一个都对应一对一的休息,但我仍然不明白最后结果是如何聚合的。有人能解释一下树木是如何相互作用的吗:
(1) 在每个步骤/阶段
(2) 步骤之间
找到最终的概率?

谢谢

scikit-learn xgboost decision-tree boosting
© www.soinside.com 2019 - 2024. All rights reserved.