import torch from torch import nn x = torch.tensor([[1, 2, 3], [4, 5, 6]]) self.token_emb = nn.Embedding(num_tokens, dim) x = token_emb(x)
我想通过这段代码为每一行创建维度为“dim”的嵌入,这是否正确?为什么?我不明白如果做 x.t() 例如改变某些东西。