与这个问题有关。 @Vladimir Sotnikov 的答案给出了获取分配的 colab 节点的配置信息的说明。他还展示了如何使用 pytorch 获取此类信息,并提出了一个单独的问题。就这样吧。
import torch
batch_size=int(torch.cuda.get_device_properties(0).total_memory/1e9+.5)*16
print(f'GPU mem:{int(torch.cuda.get_device_properties(0).total_memory/1e9+.5)}G, batch_size:{batch_size}')