gpu-cooperative-groups 相关问题


我有一个两个 GPU 的 NVIDIA 驱动程序,在 ubuntu 上使用 python 代码显示它是一个 GPU ID

我有一个 2 A100 PCIE (80GB VRAM) GPU,但 NVIDIA 给我的可见 GPU 是 1。 例如 0 索引 GPU,我无法在 ubuntu 服务器上获取 1 索引 GPU。 这是代码结果 Pytorch 图像...


如何使用ffmpeg API指定GPU?

据我所知,可以在命令行中使用-hwaccel_device或-gpu来指定GPU设备,但是如何在使用API时指定GPU呢? 我试图在 ffmpeg.c 中找到它,但这太复杂了......


GKE GPU 实例失去互联网访问权限(仅当有 GPU 时)

我在 GCP 上的 GKE 环境中使用 GPU 实例。不幸的是,我在 GPU 实例上无法访问互联网。有时有效,有时无效。我首先发现这个问题是因为...


GPU 不适用于 Pytorch

我今天安装了 Anaconda、CUDA 和 PyTorch,但无法在 torch 中访问我的 GPU (RTX 2070)。我遵循了所有安装步骤,否则 PyTorch 工作正常,但是当我尝试访问 GPU 时


在另一个列表中计算一个列表中的元素

df 是这样的: df <- data.frame( groups=I(list(c("a"), c("b","c", "d", "e","f"), c("g","h"), c("i&quo...


MLT框架目标GPU

我有一台配备 AMD iGPU 和 AMD 专用 GPU 的笔记本电脑,我正在使用 shotcut,它显然使用了 MLT 框架。看起来 Shotcut 正在使用 iGPU 进行基于


WASM 和对 GPU 的访问?

我一直在尝试使用 Blazor WASM 来访问大多数 GPU 支持的硬件加速功能,但运气不佳。 我搜索了 Stack Overflow 但没有找到太多相关的


下载期间出错:“NoneType”对象没有属性“groups”

我无法从我的谷歌驱动器下载音频文件。 导入gdown drive_link = 'https://drive.google.com/uc?id=1X13DtRGrF2gFVYL_2bVZ9OtiuSQGnl' file_id =drive_link.split('=')[1] 输出_pat...


如何让tensorflow keras使用我的GPU?

我正在尝试在张量流中使用keras来训练CNN网络以进行某些图像分类。显然,在我的 CPU 上运行的训练非常慢,所以我需要使用我的 GPU 来进行训练......


R 网络抓取新手 - 如何使用 rvest 包抓取 IMDB 电影数据?

我是 R 中网页抓取的新手,对 HTML 代码不太熟悉。我正在尝试从 https://www.imdb.com/search/title/?sort=user_ rating,desc&groups=


具有组参数集的 conv1d 层模型的 tf2onnx 转换

我尝试使用 tf2onnx 将包含 'groups' 参数 > 2 的 conv1d 层的张量流模型转换为 onnx。当我尝试在 onnxruntime 上读取 onnx 模型时,出现以下错误, 这...


如何解决从Linux在R 3.6.0中安装“udunits2”时出现“错误:libudunits2.a未找到”的问题?

我尝试使用以下命令在Linux中安装udunits2(因为我需要sf包): install.packages("/panfs/roc/groups/5/.../udunits2_0.13.tar.gz", repos=NULL, type ="source") 但我得到了这个电子...


确定内存中已编译着色器的大小

一旦在 OpenGL 或 DirectX 中运行时编译了一个顶点着色器,是否可以确定其在 GPU 内存中的占用空间?


D3DCSX 11 连接和运行 FFT 功能时出现问题

根据标题,我在使用 D3DCSX 11 设置和运行基于 DirectX11 GPU 的 FFT 时遇到问题 (系统:Win10 Pro + MS Visual Studio Community 2022(版本:17.8.3)、Windows kit 10(版本:10.0.22621.0)...


pytorch 训练中不允许进行多重处理

我尝试设置多个子流程,并使用 PyTorch 在每个子流程内的单独数据集上训练单独的模型。这是我的代码:(尚未涉及 cuda/GPU) ###################...


langchain 与 llama2 本地慢速推理

我正在使用 Langchain 和 llama-2-13B。我已在具有 240GB RAM 和 4x16GB Tesla V100 GPU 的 AWS 计算机上设置了 llama2。大约需要 20 秒才能做出推断。我想让它更快,反应...


easyocr 仅在 Windows 上无法与 cpu 一起工作

我在带有gpu和cuda的计算机上成功使用了easyocr,但现在我也必须在只有cpu的机器上使用它。 按照 https://www.jaided.ai/easyocr/ins 的安装指南进行操作后...


使用 Tensor Core 时未注册共享内存加载

我正在尝试在采用图灵架构设计的 GPU 上使用 Tensor Core 来乘以 8x8 大小的块。为此,我使用 WMMA API 和大小为 16x16 的片段。我的假设是共享的


© www.soinside.com 2019 - 2024. All rights reserved.