对embeddings代表什么的疑问

问题描述 投票:0回答:0
import torch
from torch import nn
x = torch.tensor([[1, 2, 3], [4, 5, 6]])
self.token_emb = nn.Embedding(num_tokens, dim)
x = token_emb(x)

我想通过这段代码为每一行创建维度为“dim”的嵌入,这是否正确?为什么?我不明白如果做 x.t() 例如改变某些东西。

python deep-learning pytorch embedding
© www.soinside.com 2019 - 2024. All rights reserved.