云霞资讯网

DistDF:时序预测需要分布对齐——从MSE到联合Wasserstein

目前,时间序列预测方法通常采用基于极大似然估计的 MSE 作为损失函数,但这类损失在标签序列具有自相关性时有偏。 近

目前,时间序列预测方法通常采用基于极大似然估计的 MSE 作为损失函数,但这类损失在标签序列具有自相关性时有偏。

近期,北大林宙辰团队将时间序列预测转化为条件分布对齐问题。并提出一种新的损失函数,通过最小化预测序列与标签序列条件分布之间的 Wasserstein 距离训练预测模型;既能保证无偏训练,又能充分考虑标签序列内的几何结构(自相关性)。

这一工作为以最优传输为代表的分布对齐技术赋能预测问题提供了全新的研究思路和理论框架。

论文标题:DistDF: Time-series Forecasting Needs Joint-distribution Wasserstein Alignment 作者单位: 小红书、北京大学、浙江大学、上海财经大学、松鼠 AI 等 代码链接:https://github.com/Master-PLC/DistDF

1. 问题分析:标签中的自相关性

构建一个有效的预测模型需要解决两个问题:用什么架构和怎么训练。过去十年,研究者们在架构创新上投入了大量精力 ——Transformer、线性模型、图神经网络轮番登场。但很少有人质疑:我们使用的损失函数,真的适合时间序列数据吗?

目前主流的时间序列预测方法采用直接预测范式(Direct Forecast, DF):模型接收一段历史观测,通过神经网络提取特征,然后一次性并行预测未来 T 步。相比传统的迭代预测,DF 方法具有并行计算的优势,训练效率更高。

在损失函数的选择上,DF 方法几乎 "不约而同" 地选择了时序均方误差(TMSE):

2. DistDF:基于联合分布对齐的训练方法

DistDF 团队注意到:训练预测模型,本质上是让模型预测分布与真实标签的条件分布尽可能接近。受此启发,DistDF 不再依赖传统的极大似然估计,而是直接最小化预测分布与真实条件分布之间的距离,从而规避了标签自相关带来的似然估计偏差问题。

2.1 从条件分布对齐到联合分布对齐

因此,条件分布对齐问题可以转化为联合分布对齐问题。进一步,论文基于最优传输领域的 Wasserstein 距离,进行了理论推导,证明了联合分布的 Wasserstein 距离是条件分布 Wasserstein 距离期望的上界:

因此,最小化历史 - 预测联合分布与历史 - 标签联合分布的 Wasserstein 距离,可以有效实现条件分布的对齐,从而实现预测模型的无偏训练。此外,联合分布的样本可以直接从全体数据集采集,极大丰富了用于估计分布距离的样本数量,提高了距离估算的可靠性。

2.2 基于 Bures-Wasserstein 距离的损失函数

然而,直接计算前述的 Wasserstein 距离需要求解大规模的最优传输问题,在大批量训练时会带来较大的计算负担。幸运的是,在高斯分布假设下,联合分布间的 Wasserstein 距离可以被解析地表示为均值与协方差之间的距离之和:

DistDF 的具体实现步骤如下:

DistDF 是一种模型无关的损失函数,可以支持各类预测模型。

3. 实验结果

DistDF 可以显著提升预测性能。以 ECL 为例,DistDF 将 iTransformer 的 MSE 降低了 2.7%。这些改进归因于 DistDF 能够通过对齐条件分布来处理标签中的自相关性,从而提升预测性能。

DistDF 相比现有损失函数也取得了较大的性能提升。FreDF 和 Time-o1 虽然减少了似然估计的偏差并提升了性能,但残差偏差仍然存在,因此性能仍有改进空间;DistDF 通过最小化条件分布之间的距离,实现了无偏对齐,因此取得了最佳性能。

论文还进行了消融实验,研究均值对齐和协方差对齐对损失函数性能的贡献。结果表明:仅均值对齐或仅协方差对齐相比 DF 都有改进,而结合两者取得了最佳结果,展示了两者的协同效应。

通过可视化预测序列发现,DistDF 生成的预测序列与真实标签序列之间的拟合度更高,同时抑制明显的噪声和异常波动;对困难样本的外推能力更好。

论文还测试了 DistDF 在不同神经网络架构上的表现,包括 TimeBridge、FredFormer、iTransformer 和 FreTS 等,证明了其与模型无关的特性:可以切实有效提升大多数主流预测模型的精度。

4. 结论

本文深入剖析了基于极大似然估计的预测模型训练方法有偏的问题。针对这一痛点,作者提出了 DistDF 训练框架,直接通过对齐条件分布训练预测模型。考虑到有限样本下条件分布之间的距离难以直接估计,论文提出转向联合分布对齐,并理论证明该方法足以保证条件分布对齐。大量实验证明,DistDF 在不同数据集和模型中均带来显著提升。

本研究不仅强调了损失函数设计在时间序列预测中的重要性,还揭示了分布对齐技术在设计时间序列损失函数中的重要潜力。为迁移学习、领域自适应、生成模型等领域的分布对齐技术在时序任务中的落地应用提供了理论基础和实践思路。

5. 作者介绍

本文通讯作者李昊轩现任北京大学助理研究员,清华大学逻辑学研究中心、牛津大学研究员(Research Fellow)。研究兴趣是因果推断和大模型逻辑推理,以第一作者和通讯作者发表 CCF-A 类论文 50 余篇,谷歌学者引用超 1000 次,国家发明专利授权 17 项,研究成果被麻省理工科技评论、人民日报、中国人工智能学会等报道。

本文通讯作者林宙辰博士现任北京大学智能学院、通用人工智能全国重点实验室教授。他的研究领域包括机器学习和数值优化。他已发表论文 360 余篇,谷歌学术引用超过 42,000 次。他是 IAPR、IEEE、AAIA、CCF 和 CSIG 会士,多次担任 CVPR、NeurIPS、ICML 等会议的 Senior Area Chair,现任 ICML Board Member。本工作得到了北京市科学技术委员会、中关村科技园区管理委员会的大力支持,在此深表感谢。