时间序列 Transformer 模型中的位置编码

问题描述 投票:0回答:1

我正在研究多元时间序列异常检测,目前使用类似于“注意力就是您所需要的一切”论文中介绍的位置编码。然而,由于以固定时间间隔对时间序列进行重新采样,我面临着信息丢失的问题,这无法捕获变量的快速变化。一种解决方案是减少重采样步骤,但这可能会导致数据集过大和训练时间更长。

我正在考虑一种替代方法,我修改位置编码以合并有关连续步骤之间的时间差的信息,而不是重新采样。这样,我可以保留时间信息,而不会显着增加数据集大小。

是否有现有的实现或研究论文在多元时间序列分析的背景下探索这种类型的位置编码?”

绝对位置编码

deep-learning time-series resampling
1个回答
0
投票

我发现这篇很棒的论文对我帮助很大! https://arxiv.org/abs/1907.05321

© www.soinside.com 2019 - 2024. All rights reserved.