我有一个优化问题,我用scipy和最小化模块解决它。我使用SLSQP作为方法,因为它是唯一适合我的问题的方法。要优化的功能是成本函数,“x”作为百分比列表。我有一些必须遵守的限制:
下面你可以看到我尝试的模型。问题是'约束'功能。我得到了解决方案,其中'prop'的总和大于'probertyMax'。
import numpy as np
from scipy.optimize import minimize
class objects:
def __init__(self, percentOfInput, min, max, cost, proberty1, proberty2):
self.percentOfInput = percentOfInput
self.min = min
self.max = max
self.cost = cost
self.proberty1 = proberty1
self.proberty2 = proberty2
class data:
def __init__(self):
self.objectList = list()
self.objectList.append(objects(10, 0, 20, 200, 2, 7))
self.objectList.append(objects(20, 5, 30, 230, 4, 2))
self.objectList.append(objects(30, 10, 40, 270, 5, 9))
self.objectList.append(objects(15, 0, 30, 120, 2, 2))
self.objectList.append(objects(25, 10, 40, 160, 3, 5))
self.proberty1Max = 1
self.proberty2Max = 6
D = data()
def optiFunction(x):
for index, obj in enumerate(D.objectList):
obj.percentOfInput = x[1]
costSum = 0
for obj in D.objectList:
costSum += obj.cost * obj.percentOfInput
return costSum
def PercentSum(x):
y = np.sum(x) -100
return y
def constraint(x, val):
for index, obj in enumerate(D.objectList):
obj.percentOfInput = x[1]
prop = 0
if val == 1:
for obj in D.objectList:
prop += obj.proberty1 * obj.percentOfInput
return D.proberty1Max -prop
else:
for obj in D.objectList:
prop += obj.proberty2 * obj.percentOfInput
return D.proberty2Max -prop
def checkConstrainOK(cons, x):
for con in cons:
y = con['fun'](x)
if con['type'] == 'eq' and y != 0:
print("eq constrain not respected y= ", y)
return False
elif con['type'] == 'ineq' and y <0:
print("ineq constrain not respected y= ", y)
return False
return True
initialGuess = []
b = []
for obj in D.objectList:
initialGuess.append(obj.percentOfInput)
b.append((obj.min, obj.max))
bnds = tuple(b)
cons = list()
cons.append({'type': 'eq', 'fun': PercentSum})
cons.append({'type': 'ineq', 'fun': lambda x, val=1 :constraint(x, val) })
cons.append({'type': 'ineq', 'fun': lambda x, val=2 :constraint(x, val) })
solution = minimize(optiFunction,initialGuess,method='SLSQP',\
bounds=bnds,constraints=cons,options={'eps':0.001,'disp':True})
print('status ' + str(solution.status))
print('message ' + str(solution.message))
checkConstrainOK(cons, solution.x)
没有办法找到解决方案,但输出是这样的:
Positive directional derivative for linesearch (Exit mode 8)
Current function value: 4900.000012746761
Iterations: 7
Function evaluations: 21
Gradient evaluations: 3
status 8
message Positive directional derivative for linesearch
我的错在哪里?在这种情况下,它以模式8结束,因为该示例非常小。对于更大的数据,算法以模式0结束。但我认为它应该以提示不能保持约束为结束。
如果proberty1Max设置为4或1,则没有什么区别。但是如果它是1,则无法找到有效的解决方案。
PS:我在这个问题上做了很多改变......现在代码是可执行的。
编辑:1.Okay,我了解到,如果输出是positiv(> 0),则接受不等约束。在过去,我认为<0也将被接受。因此,约束函数现在有点短。
我认为可能与评论中提到的tux007问题存在关联。 link to the issue如果初始猜测不是有效的解决方案,我认为优化器不能正常工作。线性规划对于超定方程并不好。我的问题没有一个独特的解决方案,它是一个近似值。
正如评论中提到的,我认为这是问题所在:Misleading output from....
如果您查看最新的更改,则不满足约束,但算法会说:“linesearch的正方向导数”