解决 pytorch 分布式执行为每个进程 spawned 打印多条日志语句?

问题描述 投票:0回答:1

我正在运行 pytorch 分布式环境来训练一些模型,在同一个脚本中,我也使用日志来打印程序的状态。问题是,由于pytorch分布式产生了多个进程,我看到我的日志语句被打印出来了 n 的时候 n 是正在生成的进程数。下面是一个例子。

1.0, 0.05, 2.1823, 0.1703, 1.9799, 0.2352
1.0, 0.05, 2.1804, 0.1674, 1.9767, 0.2406
1.0, 0.05, 2.1814, 0.1697, 2.0053, 0.2154
2.0, 0.05, 2.1593, 0.1741, 2.0935, 0.192
2.0, 0.05, 2.1526, 0.1779, 2.1166, 0.1908
2.0, 0.05, 2.1562, 0.1812, 2.0868, 0.2076
3.0, 0.05, 1.9319, 0.2473, 1.8041, 0.2903
3.0, 0.05, 1.9386, 0.2413, 1.8037, 0.3017
3.0, 0.05, 1.9286, 0.2443, 1.815, 0.2939
4.0, 0.05, 1.7522, 0.3153, 1.828, 0.3131
4.0, 0.05, 1.7504, 0.3207, 1.7613, 0.3245
4.0, 0.05, 1.7522, 0.3223, 1.7841, 0.3209
5.0, 0.05, 1.5815, 0.3951, 1.5559, 0.4307
5.0, 0.05, 1.5767, 0.3939, 1.5326, 0.4205
5.0, 0.05, 1.588, 0.3909, 1.5882, 0.3995

有什么办法可以避免或解决这个问题?谢谢!我正在运行pytorch分布式环境来训练一些模型,在同一个脚本中,我也在训练一些模型。

multiprocessing pytorch distributed-computing distributed
1个回答
© www.soinside.com 2019 - 2024. All rights reserved.