CUDA是Nvidia GPU(图形处理单元)的并行计算平台和编程模型。 CUDA通过各种编程语言,库和API为Nvidia GPU提供了一个接口。
我有一个包含许多.cpp 文件的项目。 主要用于测试,我喜欢将这些.cpp文件编译为CUDA文件。 我可以用这样的方式覆盖 CMake 自动检测到的语言...
我有几个“神奇”的浮点常量,我想在 CUDA 设备端计算中以 constexpr 符号的形式使用位精确的常量。在主机端,您可以使用 std::bit_...
我有一台 NVidia GeForce GTX 770,希望将其 CUDA 功能用于我正在进行的项目。我的机器运行的是 Windows 10 64 位。 我已按照提供的 CUDA 工具包安装...
该函数第 7 行出现错误 def Visualize_embedding(h, color, epoch=None, loss=None): plt.figure(figsize=(7,7)) plt.xticks([]) plt.yticks([]) h = h.detach().clone().cpu().nump...
我使用官方 Nvidia conda 存储库安装了 cuda 工具包,其中包括 nvcc。 当我在终端上手动调用 nvcc 时它可以工作,但是当我在 CLion 中创建 Cuda 项目时,在 p 启动时...
CUDA 实现了 std::complex 运算符 = 吗?
我已经将向量add的int版本修改为两个复数向量相加,下面的代码可以工作,但我很困惑: #包括 #包括 #定义N (2048*2048) #定义
当Conda安装了cuda工具包时,如何在Nsight VSCode扩展中获得CUDA语法高亮?
我正在使用 Fedora 39 并使用 conda install 在 conda env(不是基础环境)中安装 cudatoolkit。当在 conda env 中时,我可以执行 nvcc foo.cu && ./a.out 并且工作正常。 (当我做哪个n...
cudaFuncSetSharedMemConfig 在 12.4 中已弃用 - 为什么?
升级到 CUDA 12.4 并重新编译我的项目后,我收到以下警告: Experiments.cu:188:39:警告:‘cudaError_t cudaFuncSetSharedMemConfig(T*, cudaSharedMemConfig) [其中 T =...
使用 VS Code 在 Windows 上进行 Cuda 调试
我想使用 Visual Studio Code 调试我的 Cuda 程序,尤其是 GPU 代码,因为我已经可以使用 MSVC 调试器(cppvsdbg)调试 CPU 代码。我知道这可以在 Windows 上完成,因为...
调用 fork() 后出现“初始化错误”。如果我在没有 fork 的情况下运行相同的程序,则一切正常。 if (fork() == 0) { ... cudaMalloc(....); ... } 什么会导致这种情况呢? 一个
我对 CUDA 编程比较陌生,所以我想澄清将结构传递到内核时的行为。我定义了以下结构来模拟 3D 数组的行为...
我写了一个CUDA SGEMM程序,当我想用多线程CPU实现来测试速度时,它无法以多线程方式运行。我单独隔离了 CPU 实现...
有没有办法在nvcc中为设备代码(内核代码)启用`-Wconversion`?
我最近正在学习用CUDA编写前缀和算法。我有一个愚蠢的错误,我将浮点变量分配给失去精度的整数变量: // 第 3 阶段:填充最后一个元素 o
为什么编译 CUDA C++ 项目时 nvcc 不起作用而 cmake 起作用?
我有一个用 CUDA C++ 编写的代码,我可以使用 CMake、Make 构建这个项目并像往常一样运行它。但是当我尝试使用 nvcc 来调试它时,它会抛出类似的错误 致命错误:ATen/ATen.h:没有这样的...
是否可以在 CUDA 源文件(而不是内核代码)中使用 OpenMP 编译指示? 我将结合 GPU 和 CPU 计算。但 nvcc 编译器失败,并显示“找不到未知选项‘openmp’&qu...
是否可以在 CUDA 文件中使用 openMP 编译指示(而不是在内核代码中)? 我将结合 GPU 和 CPU 计算。但是 nvvc 编译器失败,并显示“找不到未知选项‘openmp’”,如果我是
还有其他原因导致CUFFT_INTERNAL_ERROR发生吗? 我对每组相同大小的输入和不同批量大小进行 cuFFT2D。 输入数组大小为 360(行)x90(列),批量大小通常...
我的笔记本电脑没有 nVidia 显卡,我想在 CUDA 上工作。该网站称 CUDA 也可以在非 cuda 硬件上以仿真模式使用。但是当我尝试安装 CUDA 驱动程序时
我正在使用 CUDA 代码构建一个项目,使用最近的 CMake,它具有内在的 CUDA 支持(版本 >= 3.8 或更高版本,如果需要)。 我如何告诉 CMake(也)为我的各种
在 Docker 容器中使用 Python 版本 3.11 安装 PyTorch
我在PyTorch官方页面上看到PyTorch支持Python版本3.8到3.11。 当我实际尝试在 Python 3.11 Docker 映像中安装 PyTorch + CUDA 时,似乎无法找到 CUDA 驱动器...