在学习算法和统计分类中,随机森林是一个集合分类器,包含在许多决策树中。它输出的类是各个树输出的类的模式,换句话说,是具有最高频率的类。
我正在参加 Kaggle 竞赛 (https://www.kaggle.com/competitions/playground-series-s4e8),我们必须根据提供的数据预测蘑菇是否有毒。 这是...
通过 GridSearch 修复随机森林/梯度增强回归的过度拟合(不起作用,需要帮助):)
我目前正在为一个 Uni 项目通过 Python 中的随机森林和梯度增强算法进行回归。 代码正在运行,结果看起来很有希望,但我有一个问题......
下午好! 我从事营销分析工作,现在我的任务是在项目类别之间分配营销预算(假设为 100 万),以实现收入最大化。 我熟悉基本的
我使用 R 版本 4.4.1 和 randomForest 4.7-1.1 来预测具有 16 个变量的二元结果,其中 4 个是数值变量,12 个是因子变量。该数据由 2600 个观测值组成...
混合协同过滤和基于句子相似性的系统,用于根据用户输入的症状和位置进行医生推荐
我正在尝试使用以下混合协作过滤和基于句子相似性的推荐系统来解决根据用户的症状和位置推荐医生的问题
在 GEE 中计算 RF 回归超参数调整的 RMSE 时遇到错误“(...)List<FeatureCollection>。”
我正在 GEE 中对随机森林回归算法进行非常基本的超参数调整。在此过程中,我还想计算 RSME 来评估所述超参数调整。 我收到一个
如何针对大型数据集优化Python中RandomForestClassifier的超参数?
我正在解决这个问题,我认为 scikit-learn 中的 RandomForestClassifier 对于大型数据集来说是更好的解决方案。只是在尝试了这个之后,我发现它不准确......
RF 对于我的线性数据总是过度拟合。我尝试过超参数优化。这是一个普遍问题吗? 截距=2 下标数字 = ['\u2081', '\u2082', '\u2083', '\u2084', '\u...
我正在使用多种机器学习模型进行 AQI 预测。数据为日格式,共有1850条记录。我的火车 R2 分数约为 99,测试分数约为 91。这是差距吗...
有人知道如何解决这个问题吗? 我正在尝试使用生物气候变量建立物种分布模型 Naimi 的 sdm 包,2016 R版本4.4.1 错误: 型号 <- sdm(Species ~...
我应用了 使用以下代码对我的数据进行决策树分类器和随机森林分类器: def Decision_tree(train_X, train_Y, test_X, test_Y): clf = 树.DecisionTreeClassifie...
如何修复机器学习中不切实际的完美测试分数:诊断和解决 100% 准确率
我正在尝试使用随机森林、梯度提升和 SVM 分类器来预测早孕。然而,我在训练和测试集上始终获得 100% 的准确率,这似乎
我正在Rstudio中使用rfsrc来运行我的生物信息学数据(包括生存状态和时间),并且我开发了我的竞争风险模型。虽然我已经使用嵌套交叉验证生成了结果......
我正在开展一个项目,以确定更好地预测二进制结果的变量。我首先拟合随机森林和条件变量重要性来评估变量的重要性......
Julia MLJ 森林加载:错误:MethodError:没有与 BetaML.Bmlj.RandomForestRegressor() 匹配的方法
你好, 我在使用 MLJ 的任何类型的决策树模型时都遇到问题。我已经尝试了 MLJ、DecisionTree、Scikit 的 3 个软件包,现在又尝试了这个 BetaML。只有当我尝试训练一些 k 时才会发生这种情况...
随机森林/决策树输出概率设计:使用正输出叶子样本/总输出叶子样本
我正在使用 python 和 scikitlearn 设计一个二元分类器随机森林模型,其中我想检索我的测试集是两个标签之一的概率。据我了解,
我正在计算一个名为“spot”的变量的预测(未来数据结果)。我使用随机森林和另一个名为“DTCI”的变量作为特征。预测已做出...
我正在尝试使用随机森林模型来预测目标特征。我想使用 ROC 指标,它位于 caret 包的 train() 函数中。然而,我一直在接受这种按摩,R...
我正在尝试在R中训练随机森林模型,数据是尺寸为502x5477的矩阵。 代码很简单: 随机森林模型 <- train(target ~ ., data = matrix, method = “rf”,
我使用随机森林作为回归模型,并具有以下数据,其中 X 是单纯形形式的高维数据集。 数据链接: Y 数据集 X数据集 我尝试过使用 permuta...