Autoformer
00 分钟
2023-11-23

Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting

 

工作出发点

任务背景

解决待预测的序列长度远远大于输入长度,即基于有限的信息预测更长远的未来。
  1. obscured by entangled temporal patterns

    现有方法的缺点及其原因

    1. Transformer的不足
      1. 长序列中的复杂时间模式使得注意力机制难以发现可靠的时序依赖(即一个时间点的数据如何影响另一个时间点)
      2. 基于Transformer的模型不得不使用稀疏形式的注意力机制来应对二次复杂度的问题,但造成了信息利用的瓶颈

    工作的构思(创新点)

    技术方案的解读

    实验部分

    设计和结果

    数据集

    指标

    baseline

    表示分析

    消融实验分析

    总结与展望

    论文贡献点

    论文缺陷

    改进思路

     

    评论
    Loading...