【InformationSciences】小扰动就足够了:对时间序列预测的对抗性攻击
时间序列数据在现实世界的工业场景中广泛存在。为了在实际应用中恢复和推断信息,时间序列预测问题作为数据挖掘中的一个经典研究课题得到了广泛的研究。深度学习架构已被视为下一代时间序列预测模型。然而,最近的研究表明,深度学习模型很容易受到对抗性攻击。在这项研究中,我们前瞻性地研究了时间序列预测对抗性攻击的问题,并提出了一种攻击策略,通过在原始时间序列中添加恶意扰动来降低时间序列预测模型的性能,从而生成对抗性时间序列。具体地,利用预测模型的梯度信息,提出了一种基于扰动的对抗性示例生成算法。在实践中,与图像处理领域中人类无法察觉的情况不同,时间序列数据对异常扰动更敏感,并且对扰动量有更严格的要求。为了应对这一挑战,我们基于重要性测量制作了一个对抗性时间序列,以稍微干扰原始数据。基于在真实世界时间序列数据集上进行的综合实验,我们验证了所提出的对抗性攻击方法不仅有效地欺骗了目标时间序列预测模型LSTNet,而且还攻击了最先进的基于CNN、RNN和MHANET的模型。同时,结果表明,所提出的方法具有良好的可移植性。也就是说,为特定预测模型生成的对抗性示例会显著影响其他方法的性能。此外,通过与现有的对抗性攻击方法的比较,我们可以看到,对于所提出的基于重要性测量的对抗性进攻方法来说,更小的每次扰动就足够了。本文中描述的方法对于理解对抗性攻击对时间序列预测的影响和提高此类预测技术的稳健性具有重要意义。
关键词:时间序列数据,时间序列预测,对抗性攻击