谁能给我解释一下MinMaxScaler()的工作原理?[已关闭]

问题描述 投票:0回答:1

为什么我们要使用MinMaxScaler(),它的作用是什么?

scaler = MinMaxScaler()
scaler.fit(X_train)
X_train = scaler.transform(X_train)
X_test = scaler.transform(X_test)
model = LogisticRegression()
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
python machine-learning data-science logistic-regression
1个回答
0
投票

方法的核心

对输入特征变量进行归一化的方法是Min-Max缩放器。通过这种方式,所有的特征都将被转化为范围为 [0,1] 意味着一个特征变量的最小值和最大值将分别为0和1。

为什么要在模型拟合前进行归一化?

归一化标准化背后的主要思想始终是相同的。在不同尺度下测量的变量对模型拟合&模型学习函数的贡献不一样,最终可能会产生偏差。因此,为了处理这个潜在的问题,通常在模型拟合之前使用特征化归一化,如MinMax Scaling。

更多内容请点击这里。https:/towardsdatascience.comeverything-you-need-to-know-about-min-max-normalization-in-python-b79592732b79。


-1
投票

本质上,该代码正在对独立变量进行缩放,使它们位于0和1的范围内。这一点很重要,因为很少有变量值可能是成千上万的,很少有变量值可能是小范围的。因此,为了处理这种情况,缩放是很重要的.Logistic回归对这样的高值很敏感.更多关于min max的信息在这里。https:/scikit-learn.orgstablemodulesgeneratedsklearn.preprocessing.MinMaxScaler.html。


-1
投票

MinMaxScaler遵循的方法论。

X_std = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
X_scaled = X_std * (max - min) + min

例子:

>>> from sklearn.preprocessing import MinMaxScaler
>>> data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]
>>> scaler = MinMaxScaler()
>>> print(scaler.fit(data))
MinMaxScaler()
>>> print(scaler.data_max_)
[ 1. 18.]
>>> print(scaler.transform(data))
[[0.   0.  ]
 [0.25 0.25]
 [0.5  0.5 ]
 [1.   1.  ]]
>>> print(scaler.transform([[2, 2]]))
[[1.5 0. ]]

https:/scikit-learn.orgstablemodulesgeneratedsklearn.preprocessing.MinMaxScaler.html。

© www.soinside.com 2019 - 2024. All rights reserved.