快了,运行本身运行docker容器的任务的最简单方法是什么?

问题描述 投票:1回答:1

以下代码在一个可迭代对象上映射了一个函数。应用于每个元素的函数运行一个docker容器以计算其返回值:

import subprocess

def task(arg):
    return subprocess.check_output(
        ["docker", "run", "ubuntu", "bash", "-c", f"echo 'result_{arg}'"]
    )

args = [1, 2, 3]
for result in map(task, args):
    print(result.decode("utf-8").strip())
result_1
result_2
result_3

最简单地在云计算资源上并行化此计算的最简单方法是什么?

例如,如果可以执行以下操作会很好。但这当然是行不通的,因为在Fargate上执行python代码的docker容器正在运行默认的dask映像,因此无法自行生成docker容器(我不确定是否存在或在此“ docker-in-docker”方向上不是解决方案):

import subprocess

from dask.distributed import Client
from dask_cloudprovider import FargateCluster
import dask.bag

def task(arg):
    return subprocess.check_output(
        ["docker", "run", "ubuntu", "bash", "-c", f"echo 'result_{arg}'"]
    )

cluster = FargateCluster(n_workers=1)
client = Client(cluster)
args = [1, 2, 3]
for result in dask.bag.from_sequence(args).map(task).compute():
    print(result)

我正在寻找一种解决方案,该解决方案不涉及在同一docker映像中容纳无关代码。即我希望我的任务用于其计算的docker映像是任意的第三方映像,我不必通过添加python / dask依赖关系对其进行更改。因此,我认为排除基于dask_cloudprovider.FargateCluster/ECSCluster下工作节点使用的映像的解决方案,因为这将必须包含python / dask依赖项。

docker dask dask-distributed dask-kubernetes
1个回答
0
投票

将容器拖到kubernetes节点上会产生大量开销,并且只有在任务长时间运行(几分钟,几小时)的情况下,才可以证明是合理的。 dask面向基于Python的低开销任务。

我认为,dask不是执行容器图像任务的正确工具。还有其他几种技术可以更好地支持基于容器的任务/工作流的执行(例如,Airflow的KubernetesExecutor或Argo Workflow)。

您可能考虑的是在基于容器的任务中使用dask_kubernetes来旋转临时群集,以执行所需的计算工作。

© www.soinside.com 2019 - 2024. All rights reserved.