在机器学习中,这是选择最相关特征的子集来构建数据模型的过程。
我正在寻找r中生存数据的一些特征选择方法。我想使用最大相关性和最小冗余来完成上述任务。在 mRMRe 包的小插图中,它提到了它们
使用单个特征(在本例中为距离)训练模型,同时还使用观察权重,是否正确? 我正在尝试训练一个机器学习模型,其中唯一的输入特征是......
我正在使用重要特征选择来实现管道,然后使用相同的特征来训练我的随机森林分类器。以下是我的代码。 m = ExtraTreesClassifier(n_estimators = ...
我是机器学习新手,想了解更多有关分类的信息。我有一个包含 n=600 个评分样本和数千个潜在指标的小数据集,所有指标都是分类的(正确或错误)。基本上,我会...
使用 GaussianNB 选择KBest 的结果不精确/一致
我想使用 SelectKBest 选择前 K 个特征并运行 GaussianNB: 选择 = SelectKBest(mutual_info_classif, k=300) data_transformed = Selection.fit_transform(数据, 标签) 新数据传输...
我有一个观察表,或者更确切地说是“分组”观察,其中每个组代表一笔交易,每行代表一个产品。但预测是在交易层面进行的。下面是...
ValueError:list.remove(x):在进行模型构建时x不在列表中 - 特征选择的逐步选择
我正在使用 statsmodels.api 作为 sm 进行特征选择的逐步选择,在运行代码时出现此错误 ValueError: list.remove(x): x 不在列表中 对于下面的...
如何通过特征重要性进行特征选择循环,其中删除的特征在Python的每次迭代中imp = 0或低于平均imp?
我在Python Pandas中有DataFrame,如下所示: 输入数据: Y - 二元目标 X1...X5 - 预测变量 DataFrame的源代码: 将 pandas 导入为 pd 将 numpy 导入为 np 从 xgboost 导入 XGBClassifie...
运行 SelectKBest 后会选择一些特征,结果以数组形式返回,所以我不知道它们是哪些特征,因为我的训练集有数千个特征。 我想要...
我正在开发一个机器学习项目,其中我有一个数据集,其中包含数字列和包含数组的列的组合。数字列(例如平均值)包含单个值,而
在 sklearn 管道中使用固定特征实现自定义套索回归以进行变量选择
R 语言中有两篇与此主题相关的帖子,包括 Lasso 回归模型中的固定回归量和固定效应 Lasso logit 模型 我正在使用 Lasso 编写一个特征选择模型
属性错误:“ParticleSwarmOptimization”对象没有属性“global_best_fitnes”
用于特征选择的执行代码 PSO 错误 定义健身(位置): selected_features = np.array(位置, dtype=bool) X_selected = X.iloc[:, selected_features] X_train,X_test,y_...
如何恢复或转换one-hot编码列并显示原始特征的特征重要性而不是编码形式?
使用RandomForestClassifier,这是当前重要的功能列表: 帐单长度 0.367075 鳍状肢长度毫米 0.196314 帐单深度 0.153329 身体质量g 0.152304
我叫Lucas,对机器学习领域比较陌生。我在一些在线文档和教程的帮助下编写了这段代码。不过,我需要一些帮助
有没有办法评估模型是否能够识别有影响的变量(使用make_classification生成的变量)?
我有一个关于 scikit-learn 的 make_classification 的问题。我使用 make_classification (二元分类任务)创建了一个数据集,目的是测试不同模型的表现
有没有办法在模型拟合后检索 SequentialFeatureSelection 的系数?
我正在尝试进行特征选择,以识别与响应相关的特征。到目前为止,我已经使用了 sklearn 中的 RFE、RFECV、SelectFromModel 和 SequentialFeatureSelection。莫之后...
使用 SelectKBest 从 3D numpy 数组中自动选择特征
我是机器学习新手,正在处理一个非常复杂的问题。我有一个名为“psd_data”的 3D numpy 数组,其中包含来自执行运动想象三项的人类受试者的脑电图数据...
我将 xgboost 应用于以下数据集并进行预测,我也能够获得整个模型最重要的特征,但是我也想知道每个预测...
在 scikit-learn 和 PCA 中使用向后特征选择进行特征选择
我已经使用 PCA 计算了 DF 中所有列的分数,该 DF 有 312 列和 650 行,代码如下: all_pca=PCA(random_state=4) all_pca.fit(tt) all_pca2=all_pca.transform(tt...
我正在尝试用Python实现Okapi BM25。虽然我看过一些教程如何做到这一点,但我似乎陷入了这个过程。 所以我收集了文档(并且有“id”和“t”列......