使用scipy.minimize()训练逻辑神经元

问题描述 投票:0回答:1

我在后勤神经元训练中使用scipy.minimize()时遇到了麻烦。我的成本和梯度功能已经成功测试。

scipy.minimize()向我发回“IndexError:数组索引太多”。我正在使用method ='CG',但这与其他方法相同。

res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntro, options={'maxiter': 500})

W(权重),XX(训练集)和Y(结果)都是numpy 2D数组。

请在下面找到渐变代码和成本函数:

def loOutput(X, W):
   Z = np.dot(X, W)
   O = misc.sigmoid(Z)
   return O


def loCostEntro(W, X, Y, lmbda=0):
   m = len(X)
   O = loOutput(X, W)
   cost = -1 * (1 / m) * (np.log(O).T.dot(Y) + np.log(1 - O).T.dot(1 - Y)) \
       + (lmbda / (2 * m)) * np.sum( np.square(W[1:]))
   return cost[0,0]

def loGradEntro(W, X, Y, lmbda=0):
    m = len(X)
    O = loOutput(X, W)
    GRAD = (1 / m) * np.dot(X.T, (O - Y)) + (lmbda / m) * np.r_[[[0]], W[1:].reshape(-1, 1)]
    return GRAD
python scipy logistic-regression minimize
1个回答
0
投票

感谢this的工作示例,我弄清楚出了什么问题。原因是scipy.minimize()向我的Gradient和Cost函数发送一维权重数组(W),而我的函数仅支持二维数组。

因此,重点解决点积中的W问题如下:

def loOutput(X, W):
   Z = np.dot(X, W.reshape(-1, 1))    # reshape(-1, 1) because scipy.minimize() sends 1-D W !!!
   O = misc.sigmoid(Z)
   return O

顺便说一句,我在修复这个问题后遇到了另一个类似的问题。 Gradient函数应返回1D渐变。所以我补充说:

def loGradEntroFlatten(W, X, Y, lmbda=0):
    return loGradEntro(W, X, Y, lmbda).flatten()

我更新了:

res = minimize(loCostEntro, W, args=(XX,Y,lmbda), method='CG', jac=loGradEntroFlatten, options={'maxiter': 500})
© www.soinside.com 2019 - 2024. All rights reserved.