增长p Ref x Sm o p chi mi zachion

问题描述 投票:2回答:2

考虑以下Gurobi模型:

import gurobipy as gb
import numpy as np
N = 100
x = np.random.randint(10, high=2*N, size=N)
model = gb.Model("ACC")
amp_i_vars = model.addVars(N, vtype=gb.GRB.BINARY, name='ai')
model.setObjective(amp_i_vars.sum(*), gb.GRB.MINIMIZE)
model.addConstrs(gb.quicksum(amp_i_vars[i] for i in range(r+1)) <= x[r] 
                 for r in range(N), "SumConstr")

我们基本上只是试图用尽可能多的位填充ai,使得位置r的位总和绝不会大于x[r]

我的问题是GurobiPy在通过约束的方式中是否“聪明”,即如果它计算ai的前缀和,或者实际上重新计算每个r<N的总和。前一种情况是线性时间,而后者则是二次方。我有一个LP包含许多这样的总和和约束,我想知道或不是最好创建一个单独的变量来存储每个序列的前缀和,以防止GurobiPy重新计算每个约束的总和,但我不知道如果已经够聪明的话,我不想这样做。

python optimization linear-programming gurobi integer-programming
2个回答
1
投票

你的确切公式有O(N ^ 2)非零,所以你坚持使用O(N ^ 2)算法来构建它。您可以避免通过此更多程序循环重新创建表达式。

import gurobipy as grb
import numpy as np
np.random.seed(10)

N = 5000
x = np.random.randint(10, high=2*N, size=N)
obj = -np.random.randint(10, high=2*N, size=N)
model = gb.Model("ACC")

# more interesting objective
amp_i_vars = model.addVars(N, vtype=grb.GRB.BINARY, name='ai', obj=obj)
model.update()
cum = grb.LinExpr()
for i, ai in amp_i_vars.items():
    cum += ai
    model.addConstr(cum <= x[i])
model.optimize()

但是,您可以通过添加表示累积和的变量的并行列表,并使用递归暨[i] = cum [i - 1] + x [i]来制定具有O(n)非零的等效模型。这也将导致模型更快地解决。

import gurobipy as grb
import numpy as np
N = 5000
np.random.seed(10)
x = np.random.randint(10, high=2*N, size=N)
obj = -np.random.randint(10, high=2*N, size=N)
model = gb.Model("ACC")

# more interesting objective function
amp_i_vars = model.addVars(N, vtype=grb.GRB.BINARY, name='ai', obj=obj)
# since cum_vars are variables, use simple upper bound
cum_vars = model.addVars(N, vtype=grb.GRB.CONTINUOUS, name='cum', ub=x)

prev_cum = 0
for i, (ai, cum) in enumerate(zip(amp_i_vars.values(), cum_vars.values())):
    model.addConstr(cum == prev_cum + ai, name="sum_constr." + str(i))
    prev_cum = cum
model.optimize()

对于N = 5000,这在0.5秒内解决,而密集模型则为16秒。


0
投票

在建模层上,gurobipy不会“聪明”并应用您描述的替换,因此它将逐个生成约束,每次重新计算部分和。您可以尝试为这些部分和引入辅助变量,但我的猜测是,如果总和非常大,“哑”方法的建模开销变得非常明显。

© www.soinside.com 2019 - 2024. All rights reserved.