仅tf就可以训练2000万以上的行数据集吗?

问题描述 投票:0回答:1

我想使用超过2000万行的数据集在tf中训练模型。执行此操作时是否有任何限制/错误?我有什么方法/技术可以尝试有效地执行此操作吗?问题是简单的分类,但我从未训练过这么大的数据集。任何意见将是有益的。谢谢

tensorflow tensorflow-datasets
1个回答
0
投票

TensorFlow可以处理通过成千上万个GPU传递的信息[PB]-问题是,您的代码是否正确管理资源,并且您的硬件可以处理吗?这称为distributed training。主题非常广泛,但是您可以从setting up a GPU开始-包括安装CUDA和cuDNN。您也可以参考输入数据管道optimization[我建议您通过Anaconda 3处理所有安装,因为它可以处理软件包兼容性-这是开始使用guidetwo

最后,您的主要硬件限制是RAM和GPU内存;前者用于模型可以处理的最大数组大小(例如8GB),后一种用于GPU可以容纳的最大模型大小。

© www.soinside.com 2019 - 2024. All rights reserved.