本地(共享)内存实际上是如何分配的?

问题描述 投票:0回答:1

作为并行计算的抽象概念,本地(共享)内存按线程块(CUDA)/工作组(OpenCL)分配,并在同一线程块(CUDA)/工作组(OpenCL)中的所有线程之间共享。

实际是怎么分配的?它是由块/组的第一个线程分配的,还是在内存控制器创建块之前分配的?或者是其他东西 ?

parallel-processing cuda opencl nvidia gpu-shared-memory
1个回答
2
投票

OpenCL 认为“本地内存”是:

  • 仅在内核执行期间可用的内存,仅由同一工作组的元素共享。每个工作组只能看到他们的本地内存。
  • 内存使用在编译时是已知的并且是有限的。

它非常类似于 CPU/多核系统中的寄存器或 L1/L2 缓存。编译器了解目标 CPU 的寄存器并相应地进行规划。 当调度程序将工作组调度到硬件资源时,将始终确保为每个工作组提供足够的内存。

您可以将内核执行中的本地内存视为指向已分配内存的指针,类似于寄存器或私有内存

© www.soinside.com 2019 - 2024. All rights reserved.