[我注意到AI社区将各种张量称为512-d,意味着512维张量,其中术语“维”似乎表示单个数据点在表示中具有512个不同的浮点值。例如in 512-d word-embeddings表示512个长度的浮点向量,用于表示1个英语单词,例如https://medium.com/@jonathan_hui/nlp-word-embedding-glove-5e7f523999f6
但是它不是512个不同的维,它只是一维向量?为什么术语dimension
的使用方式与通常不同?
[当我们使用conv1d
或conv2d
来表示一维和二维的卷积时,维以其在数学/科学中的典型使用方式使用,但是在这里,一维向量被称为是512位向量。
为什么会过度使用术语dimension
?什么上下文确定dimension
在机器学习中的含义,因为该术语似乎超载了?
不是超载,而是标准用法。 512维向量空间的元素是什么?它们是512维vector