Logistic 和 lineair 回归能不能在比例上产生预测?

问题描述 投票:-1回答:2

我目前有一个图纸的数据集,每张图纸都由一些特征表示。每个特征(独立变量)都是一个连续的数字。目前还没有一张图纸有标签,这就是为什么我打算和大家开始一种问卷调查。然而,在我正确设置这样的问卷调查之前,我应该知道我的训练数据应该使用什么样的标签。

一开始我想的是让人们给画作打分,比如从1到5,1为差,3为一般,5为好。另外,我也可以把问题简化为一个简单的好或坏的问题。后者意味着我将失去一些有价值的信息,但因变量可以被认为是 "二进制 "的。

使用我当时组成的训练数据,我需要有一个机器学习算法(模型),给定一张图,预测这张图是好还是不好。理想情况下,我将有一些方法来调整这种预测的严格程度。例如,模型可以不简单地预测 "好 "或 "坏",而是在0到1的范围内预测一幅画的好的可能性,然后我可以说:"好吧,让我们说所有70%可能是好的画,被认为是好的"。另一个例子是,模型用人们最初用来评价画作的分类值来预测好坏。因此,它要么预测画作是1、2、3、4或5。类似于我的第一个例子,我就可以说:"好吧,所有至少被评为4分的画,都被认为是好画。"然后根据自己的喜好调整这个阈值。

在做了一些研究之后,我想到了逻辑学和线性回归是不错的候选方法。然而,如果这两种方案哪种最适合我的方案?同样重要的是,我需要如何格式化我的标签?只是简单的0和1,还是一个标尺?

machine-learning regression logistic-regression training-data
2个回答
0
投票

如果你想使用多类分类,你可以使用1与所有的表示方法。

本质上,你为你的每一个类别训练1个分类器(你有10个类别,所以你有10个分类器),然后每个分类器只是被训练来预测该类别是否属于每个特定类别。

有其他的方法可以使多类逻辑回归工作,只需要训练一个单一的模型,例如使用分类交叉熵,但鉴于你想使用序数数据,作为回归模型使用的线性回归可能更理想。你会预测一个1到10之间的值,然后四舍五入到最接近的整数。这样一来,你就不会像惩罚远处的猜测那样惩罚近处的猜测。


0
投票

是什么让你不使用逻辑回归模型。由于缺乏更好的数据集,我使用了标准的糖尿病数据。目标变量是一个整数,介于 50200. 我对数据进行了标准化处理 [-1,1] 这样我就可以使用sigmoid作为激活函数。对于损失,我决定使用

import tensorflow as tf
from tensorflow.keras.models import Model
from tensorflow.keras.layers import MaxPooling2D, Input, Convolution2D
import numpy as np
from sklearn import datasets

diabetes = datasets.load_diabetes()

x_train=diabetes.data
y_train=2*(diabetes.target-min(diabetes.target))/(max(diabetes.target)-min(diabetes.target))-1

inputs = tf.keras.Input(shape=(x_train.shape[1],))
outputs = tf.keras.layers.Dense(1, activation=tf.nn.sigmoid)(inputs)
model = tf.keras.Model(inputs=inputs, outputs=outputs)


model.compile(optimizer=tf.keras.optimizers.Adam(),  # Optimizer
              loss=tf.keras.losses.MSE,
              metrics=['sparse_categorical_accuracy'])

history = model.fit(x_train, y_train,
                    batch_size=64,
                    epochs=300,
                    validation_data=(x_train, y_train))

你也可以使用线性回归模型。在那里你只需要把激活函数替换成线性。然而我认为压制的特点,除了确保没有更大的评级的帽子 1 或更小 -1.

最后一种选择是训练成对的偏好。这个想法是给人类看两张图,问他更喜欢哪一张。然后建立一个二元模型,例如,逻辑回归。在我看来,这种方法似乎更可取,因为它更容易为人类解答

© www.soinside.com 2019 - 2024. All rights reserved.