以下代码在一个可迭代对象上映射了一个函数。应用于每个元素的函数运行一个docker容器以计算其返回值:
import subprocess
def task(arg):
return subprocess.check_output(
["docker", "run", "ubuntu", "bash", "-c", f"echo 'result_{arg}'"]
)
args = [1, 2, 3]
for result in map(task, args):
print(result.decode("utf-8").strip())
result_1
result_2
result_3
最简单地在云计算资源上并行化此计算的最简单方法是什么?
例如,如果可以执行以下操作会很好。但这当然是行不通的,因为在Fargate上执行python代码的docker容器正在运行默认的dask映像,因此无法自行生成docker容器(我不确定是否存在或在此“ docker-in-docker”方向上不是解决方案):
import subprocess
from dask.distributed import Client
from dask_cloudprovider import FargateCluster
import dask.bag
def task(arg):
return subprocess.check_output(
["docker", "run", "ubuntu", "bash", "-c", f"echo 'result_{arg}'"]
)
cluster = FargateCluster(n_workers=1)
client = Client(cluster)
args = [1, 2, 3]
for result in dask.bag.from_sequence(args).map(task).compute():
print(result)
我正在寻找一种解决方案,该解决方案不涉及在同一docker映像中容纳无关代码。即我希望我的任务用于其计算的docker映像是任意的第三方映像,我不必通过添加python / dask依赖关系对其进行更改。因此,我认为排除基于dask_cloudprovider.FargateCluster/ECSCluster
下工作节点使用的映像的解决方案,因为这将必须包含python / dask依赖项。
将容器拖到kubernetes节点上会产生大量开销,并且只有在任务长时间运行(几分钟,几小时)的情况下,才可以证明是合理的。 dask
面向基于Python的低开销任务。
我认为,dask
不是执行容器图像任务的正确工具。还有其他几种技术可以更好地支持基于容器的任务/工作流的执行(例如,Airflow的KubernetesExecutor或Argo Workflow)。
您可能考虑的是在基于容器的任务中使用dask_kubernetes
来旋转临时群集,以执行所需的计算工作。