任务组无法创建客户端调度程序和工作程序

问题描述 投票:1回答:1

我使用dask jobqueue以以下格式创建了作业脚本:

import dask
from dask.distributed import Client
from dask_jobqueue import PBSCluster

cluster = PBSCluster(queue='research',
                     project='DaskOnPBS',
                     local_directory='/lus/dal/hpcs_rnd/Python_Data_Analysis/Jatin/Parallel_Function_Testing/',
                     cores=24,
                     processes=2,
                     memory='10GB',
                     resource_spec='select=1:ncpus=24:mem=10GB:vntype=cray_compute')

当我运行print(cluster.job_script())时,它会为我提供以下输出:

#!/usr/bin/env bash

#PBS -N dask-worker
#PBS -q research
#PBS -A DaskOnPBS
#PBS -l select=1:ncpus=24:mem=10GB:vntype=cray_compute
#PBS -l walltime=00:30:00
JOB_ID=${PBS_JOBID%%.*}

/lus/dal/hpcs_rnd/apps/anaconda3/envs/Jatin/bin/python -m distributed.cli.dask_worker tcp://10.12.1.23:44027 --nthreads 12 --nprocs 2 --memory-limit 5.00GB --name name --nanny --death-timeout 60 --local-directory /lus/dal/hpcs_rnd/Python_Data_Analysis/Jatin/Parallel_Function_Testing/

此后,我尝试创建客户端界面

client = Client(cluster)
print(client)

打印客户端后,我得到以下输出,其中包含0个worker,0个Cores和0个内存。Client interface

我不确定如何解决此问题。我认为客户端界面无法与PBS cluster / job_script正常通信。任何想法?谢谢!

python-3.x dask hpc dask-distributed
1个回答
1
投票

可能您的工作尚未开始运行,或者您的工作人员无法连接。我建议查看您的工作日志,看看它们是否能为您提供更多信息。

© www.soinside.com 2019 - 2024. All rights reserved.