我是机器学习的新手。我几个星期以来一直在努力解决问题,我希望有人可以在这里提供帮助:
我有一个带有一个连续变量的数据集,其余的是分类的。我设法对分类变量进行编码,并希望构建一个多输出分类器。
这是我的数据集:Snapshot of my data set我有这些功能:A,B我想预测:C,D,E,F,G
数据集如下所示:A,B,C,D,E,F,G
我花了好几天在scikitlearn上的多输出分类器的文档和这里,但我没有看到任何文档。
任何人都可以指出我正确的方向找到一些关于如何创建分类器和使用一些样本数据预测的示例代码?
提前谢谢P.S:我没有使用TensorFlow,非常感谢你对sklearn的帮助。
这被称为multi-task learning,它基本上是指学习多个函数但共享(部分或全部)权重的模型。这是相当普遍的,例如一个用于图像识别和检测的模型。你需要做的是定义几个损失函数(它们被称为头部)。
这是tensorflow中一个非常简单的例子,它从Y1
(来自Y2
)学习X
和this post series:
# Define the Placeholders
X = tf.placeholder("float", [10, 10], name="X")
Y1 = tf.placeholder("float", [10, 1], name="Y1")
Y2 = tf.placeholder("float", [10, 1], name="Y2")
# Define the weights for the layers
shared_layer_weights = tf.Variable([10,20], name="share_W")
Y1_layer_weights = tf.Variable([20,1], name="share_Y1")
Y2_layer_weights = tf.Variable([20,1], name="share_Y2")
# Construct the Layers with RELU Activations
shared_layer = tf.nn.relu(tf.matmul(X,shared_layer_weights))
Y1_layer = tf.nn.relu(tf.matmul(shared_layer,Y1_layer_weights))
Y2_layer_weights = tf.nn.relu(tf.matmul(shared_layer,Y2_layer_weights))
# Calculate Loss
Y1_Loss = tf.nn.l2_loss(Y1,Y1_layer)
Y2_Loss = tf.nn.l2_loss(Y2,Y2_layer)
如果您希望使用纯scikit进行编码,请参阅sklearn.multiclass
包,它们支持多输出分类和多输出回归。这是多输出回归的一个例子:
>>> from sklearn.datasets import make_regression
>>> from sklearn.multioutput import MultiOutputRegressor
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> X, y = make_regression(n_samples=10, n_targets=3, random_state=1)
>>> MultiOutputRegressor(GradientBoostingRegressor(random_state=0)).fit(X, y).predict(X)
array([[-154.75474165, -147.03498585, -50.03812219],
[ 7.12165031, 5.12914884, -81.46081961],
[-187.8948621 , -100.44373091, 13.88978285],
[-141.62745778, 95.02891072, -191.48204257],
[ 97.03260883, 165.34867495, 139.52003279],
[ 123.92529176, 21.25719016, -7.84253 ],
[-122.25193977, -85.16443186, -107.12274212],
[ -30.170388 , -94.80956739, 12.16979946],
[ 140.72667194, 176.50941682, -17.50447799],
[ 149.37967282, -81.15699552, -5.72850319]])
[更新]
这是一个完整的代码,可以进行多目标分类。尝试运行它:
import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.multioutput import MultiOutputClassifier
# The data from your screenshot
# A B C D E F G
train_data = np.array([
[5, 133.5, 27, 284, 638, 31, 220],
[5, 111.9, 27, 285, 702, 36, 230],
[5, 99.3, 25, 310, 713, 39, 227],
[5, 102.5, 25, 311, 670, 34, 218],
[5, 114.8, 25, 312, 685, 34, 222],
])
# These I just made up
test_data_x = np.array([
[5, 100.0],
[5, 105.2],
[5, 102.7],
[5, 103.5],
[5, 120.3],
[5, 132.5],
[5, 152.5],
])
x = train_data[:, :2]
y = train_data[:, 2:]
forest = RandomForestClassifier(n_estimators=100, random_state=1)
classifier = MultiOutputClassifier(forest, n_jobs=-1)
classifier.fit(x, y)
print classifier.predict(test_data_x)
输出(好吧,看起来对我合理):
[[ 25. 310. 713. 39. 227.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 312. 685. 34. 222.]
[ 27. 284. 638. 31. 220.]
[ 27. 284. 638. 31. 220.]]
如果由于某种原因这不起作用或无法应用于您的情况,请更新问题。