“图形处理单元”的缩写。有关编程传统图形应用程序的信息,请参阅“图形编程”的标记条目。对于使用GPU的通用编程,请参阅“gpgpu”的标记条目。对于特定的GPU编程技术,请参阅“opencl”,“cuda”和“thrust”的热门标签条目。
什么是 FSDP 中的 Sharding,FSDP 与 Pipeline Parallel 有何不同?
Huggingface 将 FSDP 解释为: 跨数据并行进程对模型参数、梯度和优化器状态进行分片,还可以将分片的模型参数卸载到 CPU。 和管道
无法加载动态库“cudart64_110.dll”; dlerror:找不到cudart64_110.dll
我最近安装了 Tensorflow-gpu 并弹出了 2 个错误。 无法加载动态库“cudart64_110.dll”; dlerror:找不到 cudart64_110.dll 如果您没有...
在 Windows 11 上使用 GPU 设置 Tensorflow 不起作用
我正在尝试根据此处的说明将计算机设置为在 GPU 上运行 Tensorflow:https://quark-mushroom-28d.notion.site/Tensorflow-with-GPU-on-Windows-11-70893cc80d1b457e90384f4acaa78a2。 ..
如何通过 CUDA 在 Julia 中将 For 循环带到 GPU 上
我刚开始研究如何使用 GPU 进行编码。 我见过带有 Nvidia GPU 的 CUDA。 我在CPU上的代码是用BlackBoxOptim.jl的优化方法如下: px_values = 收集...
如何修复 PyTorch RuntimeError:CUDA 错误:内存不足?
我正在尝试使用 GPU 在远程服务器上训练我的 Pytorch 模型。但是,训练阶段没有开始,而是出现以下错误: RuntimeError: CUDA error: out of memory 我
这个 opencv/numpy 代码可以工作,但是慢了 1000 倍。基本上我有一个白色方块,和另一个稍微旋转和平移的图像。该代码通过暴力尝试所有方法来恢复姿势
如何使用 Predict_on_batch 避免数据生成器出现 GPU 内存不足错误
我有一个 Keras 模型,它由两部分(左和右)组成,两个部分通常独立工作(由于实际场景),但是这些部分交换了 mod 生成的一些潜在数据...
Tensorflow 在 Gradient 上不使用 GPU
我目前正在 Paperspace/Gradient Notebooks 上训练 CNN(Python 3.8.10,Tensorflow 2.7.0) 训练花费的时间出奇地长,并且似乎使用了 >200% 的 CPU,但只有 15...
为什么`cuda`可以与`torch`一起使用,但不能与`tensorflow`一起使用
我正在尝试将我的 GPU 卡应用到 Jupyter Notebook 中,但我被 TensorFlow 困住了。 但我用火炬成功了。 我有以下设置: (myen2v) C:\Users\Jan>conda 列表 cudnn # 爸...
我在代码中使用 C++ 11 标准。我已经使用双指针变量有一段时间了,现在我想用指针向量替换它。更换后,我得到了
我有一个 4 通道纹理/表面,它们分配有以下描述符: cudaChannelFormatDesc cuda_map_desc = cudaCreateChannelDesc(32, 32, 32, 32, cudaChannelFormatKindFloat); CUDA...
我长期以来一直在考虑通过计算机网络共享 GPU。假设有一台具有 GPU 的计算机/VM 和另一台不具有 GPU 的计算机/VM B。计算机 B 如何利用...
如何在vast.ai实例上允许http流量?我想使用 fastAPI+nginx 托管 GPU 相关代码,但配置后我没有看到 NGINX 主页。我没有看到严重的网关错误。什么...
llama-cpp-python 模型不使用 nvidia gpu
尝试运行以下模型,但它没有使用 GPU 运行,而是默认使用 CPU 计算。 该代码在具有 NVIDIA GPU 的 RHEL 节点上的 docker 映像上运行(已验证并且适用于其他型号) 做...
使用 EGL 1.4 减少 OpenGL ES 2.0 / OpenGL 2.1 中用于离屏渲染的内存传输开销的方法
我很早就开始尝试在使用 MALI 400 GPU 运行 Linux 的无头嵌入式设备上执行一些图像处理任务。这通过官方驱动程序支持 OpenGL ES 2.0,并且可能...
OpenCV - 将 GpuMat 复制到 cuda 设备数据中
我正在尝试将 cv::cuda::GpuMat 中的数据复制到要在内核中使用的 uint8_t* 变量。 GpuMat 包含分辨率为 752x480 且类型为 CV_8UC1 的图像数据。下面是
我正在尝试查看 Opencl 编程模型在 GPU 上的性能,现在在测试编程模型时,我必须使用 clEnqueueNDkernel() 来启动内核,我尝试调用它
我在Rllib中使用PPO算法来训练我的深度强化学习模型。训练在具有 4 个 vCPU 和 1 个 GPU (Tesla K80) 的 AWS p2.xlarge 实例上进行。我发现 PPO 不使用 GPU。
我目前正在尝试使用 qemu 2.5 和 libvirt 1.3.5 将 nvidia GPU 传递给 Windows 10 guest 虚拟机。 我在设备管理器中的 Nvidia GPU 上看到“错误 43”。 我试图通过添加“kvm ...
在单 GPU 上运行 llama-2-70B-chat 模型
我在 ubuntu 服务器 18.04 LTS 上运行 pytorch。我有一个带有 8 GB 或 RAM 的 nvidia GPU。我想尝试新的 llma2-70B-chat 模型。我正在尝试使用peft和bitsandbytes来红色...