opencl 相关问题

OpenCL(开放计算语言)是一个用于编写程序的框架,这些程序跨CPU,GPU和其他处理器组成的异构平台执行。

在 GPU 上使用 popcnt

我需要计算 (a & b).count() 在一个大集合(> 10000)位向量(std::bitset)上,其中 N 是从 2 ^ 10 到 2 ^ 16 的任何地方。 const size_t N = 2048; std::向量 我需要计算 (a & b).count() 在一个大集合(> 10000)位向量(std::bitset<N>)上,其中 N 是从 2 ^ 10 到 2 ^ 16 的任何地方。 const size_t N = 2048; std::vector<std::vector<char>> distances; std::vector<std::bitset<N>> bits(100000); load_from_file(bits); for(int i = 0; i < bits.size(); i++){ for(int j = 0; j < bits.size(); j++){ distance[i][j] = (bits[i] & bits[j]).count(); } } 目前我依靠分块多线程和 SSE/AVX 来计算distances。幸运的是,我可以使用 AVX 中的 vpand 来计算 &,但我的代码仍在使用 popcnt (%rax) 和一个循环来计算位数。 有没有办法在我的 GPU (nVidia 760m) 上计算 (a & b).count() 函数?理想情况下,我只会传递 2 个 N 位的内存块。我正在寻找使用推力,但找不到 popcnt 功能。 编辑: 当前的 CPU 实现。 double validate_pooled(const size_t K) const{ int right = 0; const size_t num_examples = labels.size(); threadpool tp; std::vector<std::future<bool>> futs; for(size_t i = 0; i < num_examples; i++){ futs.push_back(tp.enqueue(&kNN<N>::validate_N, this, i, K)); } for(auto& fut : futs) if(fut.get()) right++; return right / (double) num_examples; } bool validate_N(const size_t cmp, const size_t n) const{ const size_t num_examples = labels.size(); std::vector<char> dists(num_examples, -1); for(size_t i = 0; i < num_examples; i++){ if(i == cmp) continue; dists[i] = (bits[cmp] & bits[i]).count(); } typedef std::unordered_map<std::string,size_t> counter; counter counts; for(size_t i = 0; i < n; i++){ auto iter = std::max_element(dists.cbegin(), dists.cend()); size_t idx = std::distance(dists.cbegin(), iter); dists[idx] = -1; // Remove the top result. counts[labels[idx]] += 1; } auto iter = std::max_element(counts.cbegin(), counts.cend(), [](const counter::value_type& a, const counter::value_type& b){ return a.second < b.second; }); return labels[cmp] == iter->first;; } 编辑: 这就是我想出的。然而,它的速度非常慢。我不确定我是否做错了什么 template<size_t N> struct popl { typedef unsigned long word_type; std::bitset<N> _cmp; popl(const std::bitset<N>& cmp) : _cmp(cmp) {} __device__ int operator()(const std::bitset<N>& x) const { int pop_total = 0; #pragma unroll for(size_t i = 0; i < N/64; i++) pop_total += __popcll(x._M_w[i] & _cmp._M_w[i]); return pop_total; } }; int main(void) { const size_t N = 2048; thrust::host_vector<std::bitset<N> > h_vec; load_bits(h_vec); thrust::device_vector<std::bitset<N> > d_vec = h_vec; thrust::device_vector<int> r_vec(h_vec.size(), 0); for(int i = 0; i < h_vec.size(); i++){ r_vec[i] = thrust::transform_reduce(d_vec.cbegin(), d_vec.cend(), popl<N>(d_vec[i]), 0, thrust::maximum<int>()); } return 0; } CUDA 具有适用于 32 位和 64 位类型的人口计数内在函数。 (__popc()和__popcll()) 这些可以直接在 CUDA 内核中使用,或者通过推力(在函子中)可能传递给 thrust::transform_reduce。 如果这是你想在 GPU 上执行的唯一功能,则可能很难获得净“胜利”,因为将数据传输到 GPU 或从 GPU 传输数据的“成本”。您的整体输入数据集大小约为 1GB(100000 个位长 65536 的向量),但根据我的计算,输出数据集的大小似乎为 10-40GB(每个结果 100000 * 100000 * 1-4 字节) . 无论是 CUDA 内核还是推力函数和数据布局都应该精心设计,目的是让代码运行仅受内存带宽的限制。数据传输的成本也可以通过复制和计算操作的重叠来减轻,也许在很大程度上,主要是在输出数据集上。 乍一看,这个问题似乎有点类似于计算向量集之间的欧几里得距离的问题,所以从 CUDA 的角度来看,这个问题/答案 可能很有趣。 编辑: 添加一些我用来调查这个的代码。我能够通过简单的单线程 CPU 实现获得显着的加速(~25 倍,包括数据复制时间),但我不知道使用“分块多线程和 SSE/AVX”的 CPU 版本有多快,所以它看到更多您的实施或获得一些性能数据会很有趣。我也不认为我这里的 CUDA 代码是高度优化的,它只是一个“初剪”。 在这种情况下,为了概念验证,我专注于一个小问题规模,N=2048,10000 个位集。对于这个小问题大小,我可以在共享内存中放置足够多的位集向量,以获得“小”线程块大小,以利用共享内存。因此,必须针对更大的N.修改这种特殊的方法 $ cat t581.cu #include <iostream> #include <vector> #include <bitset> #include <stdlib.h> #include <time.h> #include <sys/time.h> #define nTPB 128 #define OUT_CHUNK 250 #define N_bits 2048 #define N_vecs 10000 const size_t N = N_bits; __global__ void comp_dist(unsigned *in, unsigned *out, unsigned numvecs, unsigned start_idx, unsigned end_idx){ __shared__ unsigned sdata[(N/32)*nTPB]; int idx = threadIdx.x+blockDim.x*blockIdx.x; if (idx < numvecs) for (int i = 0; i < (N/32); i++) sdata[(i*nTPB)+threadIdx.x] = in[(i*numvecs)+idx]; __syncthreads(); int vidx = start_idx; if (idx < numvecs) while (vidx < end_idx) { unsigned sum = 0; for (int i = 0; i < N/32; i++) sum += __popc(sdata[(i*nTPB)+ threadIdx.x] & in[(i*numvecs)+vidx]); out[((vidx-start_idx)*numvecs)+idx] = sum; vidx++;} } void cpu_test(std::vector<std::bitset<N> > &in, std::vector<std::vector<unsigned> > &out){ for (int i=0; i < in.size(); i++) for (int j=0; j< in.size(); j++) out[i][j] = (in[i] & in[j]).count(); } int check_data(unsigned *d1, unsigned start_idx, std::vector<std::vector<unsigned> > &d2){ for (int i = start_idx; i < start_idx+OUT_CHUNK; i++) for (int j = 0; j<N_vecs; j++) if (d1[((i-start_idx)*N_vecs)+j] != d2[i][j]) {std::cout << "mismatch at " << i << "," << j << " was: " << d1[((i-start_idx)*N_vecs)+j] << " should be: " << d2[i][j] << std::endl; return 1;} return 0; } unsigned long long get_time_usec(){ timeval tv; gettimeofday(&tv, 0); return (unsigned long long)(((unsigned long long)tv.tv_sec*1000000ULL)+(unsigned long long)tv.tv_usec); } int main(){ unsigned long long t1, t2; std::vector<std::vector<unsigned> > distances; std::vector<std::bitset<N> > bits; for (int i = 0; i < N_vecs; i++){ std::vector<unsigned> dist_row(N_vecs, 0); distances.push_back(dist_row); std::bitset<N> data; for (int j =0; j < N; j++) data[j] = rand() & 1; bits.push_back(data);} t1 = get_time_usec(); cpu_test(bits, distances); t1 = get_time_usec() - t1; unsigned *h_data = new unsigned[(N/32)*N_vecs]; memset(h_data, 0, (N/32)*N_vecs*sizeof(unsigned)); for (int i = 0; i < N_vecs; i++) for (int j = 0; j < N; j++) if (bits[i][j]) h_data[(i)+((j/32)*N_vecs)] |= 1U<<(31-(j&31)); unsigned *d_in, *d_out1, *d_out2, *h_out1, *h_out2; cudaMalloc(&d_in, (N/32)*N_vecs*sizeof(unsigned)); cudaMalloc(&d_out1, N_vecs*OUT_CHUNK*sizeof(unsigned)); cudaMalloc(&d_out2, N_vecs*OUT_CHUNK*sizeof(unsigned)); cudaStream_t stream1, stream2; cudaStreamCreate(&stream1); cudaStreamCreate(&stream2); h_out1 = new unsigned[N_vecs*OUT_CHUNK]; h_out2 = new unsigned[N_vecs*OUT_CHUNK]; t2 = get_time_usec(); cudaMemcpy(d_in, h_data, (N/32)*N_vecs*sizeof(unsigned), cudaMemcpyHostToDevice); for (int i = 0; i < N_vecs; i += 2*OUT_CHUNK){ comp_dist<<<(N_vecs + nTPB - 1)/nTPB, nTPB, 0, stream1>>>(d_in, d_out1, N_vecs, i, i+OUT_CHUNK); cudaStreamSynchronize(stream2); if (i > 0) if (check_data(h_out2, i-OUT_CHUNK, distances)) return 1; comp_dist<<<(N_vecs + nTPB - 1)/nTPB, nTPB, 0, stream2>>>(d_in, d_out2, N_vecs, i+OUT_CHUNK, i+2*OUT_CHUNK); cudaMemcpyAsync(h_out1, d_out1, N_vecs*OUT_CHUNK*sizeof(unsigned), cudaMemcpyDeviceToHost, stream1); cudaMemcpyAsync(h_out2, d_out2, N_vecs*OUT_CHUNK*sizeof(unsigned), cudaMemcpyDeviceToHost, stream2); cudaStreamSynchronize(stream1); if (check_data(h_out1, i, distances)) return 1; } cudaDeviceSynchronize(); t2 = get_time_usec() - t2; std::cout << "cpu time: " << ((float)t1)/(float)1000 << "ms gpu time: " << ((float) t2)/(float)1000 << "ms" << std::endl; return 0; } $ nvcc -O3 -arch=sm_20 -o t581 t581.cu $ ./t581 cpu time: 20324.1ms gpu time: 753.76ms $ CUDA 6.5、Fedora20、Xeon X5560、Quadro5000 (cc2.0) GPU。上述测试用例包括在 CPU 与 GPU 上产生的距离数据之间的结果验证。我还将其分解为结果数据传输(和验证)与计算操作重叠的分块算法,以使其更容易扩展到存在大量输出数据(例如 100000 位集)的情况。然而,我实际上还没有通过分析器运行它。 编辑 2: 这是代码的“Windows 版本”: #include <iostream> #include <vector> #include <bitset> #include <stdlib.h> #include <time.h> #define nTPB 128 #define OUT_CHUNK 250 #define N_bits 2048 #define N_vecs 10000 const size_t N = N_bits; #define cudaCheckErrors(msg) \ do { \ cudaError_t __err = cudaGetLastError(); \ if (__err != cudaSuccess) { \ fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \ msg, cudaGetErrorString(__err), \ __FILE__, __LINE__); \ fprintf(stderr, "*** FAILED - ABORTING\n"); \ exit(1); \ } \ } while (0) __global__ void comp_dist(unsigned *in, unsigned *out, unsigned numvecs, unsigned start_idx, unsigned end_idx){ __shared__ unsigned sdata[(N/32)*nTPB]; int idx = threadIdx.x+blockDim.x*blockIdx.x; if (idx < numvecs) for (int i = 0; i < (N/32); i++) sdata[(i*nTPB)+threadIdx.x] = in[(i*numvecs)+idx]; __syncthreads(); int vidx = start_idx; if (idx < numvecs) while (vidx < end_idx) { unsigned sum = 0; for (int i = 0; i < N/32; i++) sum += __popc(sdata[(i*nTPB)+ threadIdx.x] & in[(i*numvecs)+vidx]); out[((vidx-start_idx)*numvecs)+idx] = sum; vidx++;} } void cpu_test(std::vector<std::bitset<N> > &in, std::vector<std::vector<unsigned> > &out){ for (unsigned i=0; i < in.size(); i++) for (unsigned j=0; j< in.size(); j++) out[i][j] = (in[i] & in[j]).count(); } int check_data(unsigned *d1, unsigned start_idx, std::vector<std::vector<unsigned> > &d2){ for (unsigned i = start_idx; i < start_idx+OUT_CHUNK; i++) for (unsigned j = 0; j<N_vecs; j++) if (d1[((i-start_idx)*N_vecs)+j] != d2[i][j]) {std::cout << "mismatch at " << i << "," << j << " was: " << d1[((i-start_idx)*N_vecs)+j] << " should be: " << d2[i][j] << std::endl; return 1;} return 0; } unsigned long long get_time_usec(){ return (unsigned long long)((clock()/(float)CLOCKS_PER_SEC)*(1000000ULL)); } int main(){ unsigned long long t1, t2; std::vector<std::vector<unsigned> > distances; std::vector<std::bitset<N> > bits; for (int i = 0; i < N_vecs; i++){ std::vector<unsigned> dist_row(N_vecs, 0); distances.push_back(dist_row); std::bitset<N> data; for (int j =0; j < N; j++) data[j] = rand() & 1; bits.push_back(data);} t1 = get_time_usec(); cpu_test(bits, distances); t1 = get_time_usec() - t1; unsigned *h_data = new unsigned[(N/32)*N_vecs]; memset(h_data, 0, (N/32)*N_vecs*sizeof(unsigned)); for (int i = 0; i < N_vecs; i++) for (int j = 0; j < N; j++) if (bits[i][j]) h_data[(i)+((j/32)*N_vecs)] |= 1U<<(31-(j&31)); unsigned *d_in, *d_out1, *d_out2, *h_out1, *h_out2; cudaMalloc(&d_in, (N/32)*N_vecs*sizeof(unsigned)); cudaMalloc(&d_out1, N_vecs*OUT_CHUNK*sizeof(unsigned)); cudaMalloc(&d_out2, N_vecs*OUT_CHUNK*sizeof(unsigned)); cudaCheckErrors("cudaMalloc fail"); cudaStream_t stream1, stream2; cudaStreamCreate(&stream1); cudaStreamCreate(&stream2); cudaCheckErrors("cudaStrem fail"); h_out1 = new unsigned[N_vecs*OUT_CHUNK]; h_out2 = new unsigned[N_vecs*OUT_CHUNK]; t2 = get_time_usec(); cudaMemcpy(d_in, h_data, (N/32)*N_vecs*sizeof(unsigned), cudaMemcpyHostToDevice); cudaCheckErrors("cudaMemcpy fail"); for (int i = 0; i < N_vecs; i += 2*OUT_CHUNK){ comp_dist<<<(N_vecs + nTPB - 1)/nTPB, nTPB, 0, stream1>>>(d_in, d_out1, N_vecs, i, i+OUT_CHUNK); cudaCheckErrors("cuda kernel loop 1 fail"); cudaStreamSynchronize(stream2); if (i > 0) if (check_data(h_out2, i-OUT_CHUNK, distances)) return 1; comp_dist<<<(N_vecs + nTPB - 1)/nTPB, nTPB, 0, stream2>>>(d_in, d_out2, N_vecs, i+OUT_CHUNK, i+2*OUT_CHUNK); cudaCheckErrors("cuda kernel loop 2 fail"); cudaMemcpyAsync(h_out1, d_out1, N_vecs*OUT_CHUNK*sizeof(unsigned), cudaMemcpyDeviceToHost, stream1); cudaMemcpyAsync(h_out2, d_out2, N_vecs*OUT_CHUNK*sizeof(unsigned), cudaMemcpyDeviceToHost, stream2); cudaCheckErrors("cuda kernel loop 3 fail"); cudaStreamSynchronize(stream1); if (check_data(h_out1, i, distances)) return 1; } cudaDeviceSynchronize(); cudaCheckErrors("cuda kernel loop 4 fail"); t2 = get_time_usec() - t2; std::cout << "cpu time: " << ((float)t1)/(float)1000 << "ms gpu time: " << ((float) t2)/(float)1000 << "ms" << std::endl; return 0; } 我已将 CUDA 错误检查添加到此代码中。务必在 Visual Studio 中构建 release 项目,而不是调试。当我在配备 Quadro1000M GPU 的 Windows 7 笔记本电脑上运行此程序时,CPU 执行时间约为 35 秒,GPU 执行时间约为 1.5 秒。 OpenCL 1.2 有 popcount 这似乎可以做你想做的事。它可以在一个向量上工作,所以最多 ulong16 一次 1024 位。请注意,NVIDIA 驱动程序仅支持不包含此功能的 OpenCL 1.1。 当然,您可以只使用一个函数或表来非常快速地计算它,因此 OpenCL 1.1 实现也是可能的,并且可能会在设备的内存带宽下运行。 我运行了@Robert_Crovella 的代码,它返回了一个错误。 0,0 处的不匹配是:0 应该是:1022 有什么想法吗?

回答 3 投票 0

OpenCL enqueuMapBuffer是用MMIO还是DMA?

我正在使用 OpenCL 在 FPGA 上进行加速,我对 OpenCL 的工作原理感到非常困惑。我的意思是数据传输是如何通过 enqueueMapBuffer 完成的。通过 MMIO 或 DMA? 考虑 OpenCL

回答 0 投票 0

如何使用 clGetDeviceInfo() 估计 GPU 性能

我正在尝试自动决定如何在 CPU 和 GPU 之间分配工作负载。 我想做的是检查所有设备并简单地通过

回答 1 投票 0

opencl 在使用除 CL_MEM_USE_HOST_PTR 以外的任何东西时崩溃

我的代码尝试使用时遇到问题 我的 gpu 的 opencl 功能。尤其 我正在开发这个项目: https://github.com/alekstheod/tnnlib openCL相关代码位于h...

回答 0 投票 0

如何在不知道底层数据类型的情况下确定二进制数据的数值接近度

我目前正在为 OpenCL 内核实现重放功能,您可以在其中指定要独立于原始程序重放的内核,然后将其与原始程序一起捕获...

回答 2 投票 0

CL_INVALID_KERNEL_NAME 带有在 Intel 上用 clang 创建的 SPIRV 程序

我正在尝试为我正在研究的库实现我的 OpenCL 计算着色器的离线编译,以准备使用 SPIRV 进行开发。最好的方法似乎是使用氏族...

回答 0 投票 0

为什么 EGL 上下文只与一个线程相关

我对 EGL CONTEXT 的意思有点困惑,意思是在 GPU 中专门使用 3D。 线程在 CPU 端。每个线程都可以向 GPU 发送命令来执行对象绘图(顶点、纹理、ex...

回答 2 投票 0

如何编译用“OpenCL C++”编写的 OpenCL 内核

我希望能够在我的 OpenCL 内核中使用 C++。 然而,OpenCL 3.0 主机端 API 文档第 5.8.1 节说: 5.8.1.创建程序对象 ……剪…… 源代码规范...

回答 0 投票 0

GatherNd 使用 OpenCL 在 GPU 中运行?

是否有 GatherNd 操作的 OpenCL 实现?我找不到一个,而且我在从任一 CPU ot CUDA 版本移植逻辑时遇到问题

回答 0 投票 0

库已链接但引用未定义

我正在尝试使用以前工作过一次的 NVIDIA 卡在 Ubuntu 上编译一个 openCL 程序, #包括 #包括 #包括 使用命名空间标准; 内...

回答 4 投票 0

对指针进行算术运算的 API (cl_mem)

我的最终目标是在主机端对指针进行算术运算。我知道我们可以对内核执行以下操作: // .cl 文件 __kernel void pointerAdd(float* arr, int index, float n...

回答 0 投票 0

OpenCL - 对指针进行算术运算的 API (cl_mem)

我的最终目标是在主机端对指针进行算术运算。我知道我们可以对内核执行以下操作: // .cl 文件 __kernel void pointerAdd(float* arr, int index, float n...

回答 0 投票 0

访问向量类型的第 i 个分量

有没有一种方法可以访问向量类型(例如 int4)的第 j 个分量? 这是我目前的做法,但是有更简单的方法吗? int4 temp = (int4)(10,20,30,40) 对于 (int j = 0; j < 4; ...

回答 0 投票 0

在 LUKS 头文件上使用 hashcat 5.1.0 时出现问题

我在 Ubuntu 20.04 上,希望使用 hashcat 破解 LUKS。为了准备操作,我使用以下命令从我的设备复制了 LUKS 标头: dd if=/dev/sdXX of=hashcat.luks bs=512 count=

回答 0 投票 0

Hillis & Steele 平行前缀和 C 题

这是我要实现的伪代码: 在此处输入图像描述 这是我当前的代码: 外部“C”{ #包括 #包括 #

回答 0 投票 0

在 OpenCL 上计算逆矩阵

我对为什么为 OpenCL 编写的算法对小维矩阵正确工作,但对大维矩阵不能正确工作的问题很感兴趣。 此外,对于...

回答 0 投票 0

pyopencl 在程序构建期间抛出“RuntimeError: Unresolved external function”

我正在从头开始用 Python 实现 k 最近邻 (kNN) 算法。在这个分类算法运行过程中,需要计算n-

回答 0 投票 0

禁用CUDA编译器驱动程序的二进制缓存

我注意到通过编译器驱动(驱动版本:440.64)编译CUDAOpenCL,在第一次编译内核后,编译时间快了10倍。因此,驱动程序缓存生成的...

回答 1 投票 0

OpenCL内存缓冲区没有将正确的值传递给内核。

我想通过编写一个简单的程序来学习OpenCL,对一个点的尺寸进行加减法的绝对值。当我写完代码后,输出的结果似乎不对,于是我决定 ...

回答 1 投票 0

从opencl内核中调用一个具有通过值概念的函数。

例如: void sum(int &u, int &v) { return u+v; }。__kernel void testing(__global int *a, __global int *b, __global int *c) { int i = ....

回答 1 投票 4

© www.soinside.com 2019 - 2024. All rights reserved.