编译 CUDA 文件时在 Clang 编译器中从 ___attribute___((shared)) 到 addrspace(3) 的转换

问题描述 投票:0回答:1

clang编译器包含CUDA头文件host_defines.h,其中

__shared__
定义为
__attribute__((shared))
。当使用 clang 将 CUDA 源文件编译为内部表示 (IR) 时,
__shared__
将转换为
addrspace(3)
。这些地址空间可以在clang文件中观察到llvm/tools/clang/lib/Basic/Targets.cpp行号1601作为数组

static const unsigned NVPTXAddrSpaceMap[] = {
    1, // opencl_global
    3, // opencl_local
    4, // opencl_constant
    // FIXME: generic has to be added to the target
    0, // opencl_generic
    1, // cuda_device
    4, // cuda_constant
    3, // cuda_shared
};

所以具体的问题是在转换的哪个阶段,

__attribute__((shared))
被转换为
addrspace(3)
。查看 clang 的解析和词法分析部分并没有给出任何暗示。有人可以帮忙吗?

cuda clang llvm llvm-ir gpu-shared-memory
1个回答
5
投票

shared
属性定义在clang的
Attr.td
文件中,称为
CUDAShared
,在内部表示为
CUDASharedAttr
。 在任何属性的词法分析和解析阶段,对 Attr.td 中定义的所有属性进行词法分析和解析。在此阶段,您不会找到任何必要的见解。

您将看到

CUDASharedAttr
的有价值代码的第一个点位于
clang/lib/Sema/SemaDeclAttr.cpp
。 Sema 类构建 AST 并在
SemaDeclAttr.cpp
中完成对每个属性的处理。 对于特定的
CUDASharedAttr
handleSimpleAttribute<CUDASharedAttr>(S, D, Attr);
被称为。这个函数只是将属性插入到给定的声明中(
Decl& D
)。

现在属性已附加到声明,您可以使用以下方法查询声明是否具有属性:

D.hasAttr<CUDASharedAttr>()
。例如在
SemaDecl.cpp
中,强制执行对 CUDA 共享内存声明的限制,并且共享内存变量的存储类设置为静态。

您将再次找到 CUDASharedAttr bin

clang/lib/CodeGen/CodeGenModule.cpp
,其中发出了实际的 LLVM IR。 在 CodeGenModule.cpp 中,您具有以下功能:

unsigned CodeGenModule::GetGlobalVarAddressSpace(const VarDecl *D,
                                                 unsigned AddrSpace) {
  if (LangOpts.CUDA && LangOpts.CUDAIsDevice) {
    if (D->hasAttr<CUDAConstantAttr>())
      AddrSpace = getContext().getTargetAddressSpace(LangAS::cuda_constant);
    else if (D->hasAttr<CUDASharedAttr>())
      AddrSpace = getContext().getTargetAddressSpace(LangAS::cuda_shared);
    else
      AddrSpace = getContext().getTargetAddressSpace(LangAS::cuda_device);
  }

  return AddrSpace;
}

该函数从实际目标查询共享函数的地址空间,即对于 nvptx 目标,使用您发布的地址空间映射:

static const unsigned NVPTXAddrSpaceMap[] = {
    1, // opencl_global
    3, // opencl_local
    4, // opencl_constant
    // FIXME: generic has to be added to the target
    0, // opencl_generic
    1, // cuda_device
    4, // cuda_constant
    3, // cuda_shared
};

LangAS::cuda_shared
对应地址空间3。

完成所有这些步骤后,您将在最终 IR 模块中获得一个地址空间为 3 的全局变量,如下所示:

 ; ModuleID = 'sm.cu'
  target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v16:16:16-v32:32:32-v64:64:64-v128:128:128-n16:32:64"
  target triple = "nvptx64-unknown-unknown"

  @vec= internal unnamed_addr addrspace(3) global [32 x i32] zeroinitializer, align 4

  ; Function Attrs: nounwind readnone
  declare i32 @llvm.nvvm.read.ptx.sreg.tid.x() #0

  ; Function Attrs: nounwind readnone
  declare i32 @llvm.nvvm.read.ptx.sreg.tid.y() #0

  define ptx_kernel void @__pacxx_kernel0(i32 addrspace(1)* %tmp) {
    %1 = tail call spir_func i32 @llvm.nvvm.read.ptx.sreg.tid.x() #1
    %2 = zext i32 %1 to i64
    %3 = getelementptr i32, i32 addrspace(1)* %tmp, i64 %2
    %4 = load i32, i32 addrspace(1)* %3, align 4
    %5 = getelementptr [32 x i32], [32 x i32] addrspace(3)* @vec, i64 0, i64 %2
    store i32 %4, i32 addrspace(3)* %5, align 4
    %6 = tail call spir_func i32 @llvm.nvvm.read.ptx.sreg.tid.y() #1
    %7 = zext i32 %6 to i64
    %8 = getelementptr [32 x i32], [32 x i32] addrspace(3)* @vec, i64 0, i64 %7
    %9 = load i32, i32 addrspace(3)* %8, align 4
    %10 = getelementptr i32, i32 addrspace(1)* %tmp, i64 %7
    store i32 %9, i32 addrspace(1)* %10, align 4
    ret void
  }
© www.soinside.com 2019 - 2024. All rights reserved.