对抗攻击,也称作对抗样本生成,是由于模型判断边界与真实系统边界的不一致而导致的。对抗样本指的是一类通过对原始样本数据添加针对性的微小扰动而恶意构建的样本,其不会影响人类的感知判断,但会使深度学习模型产生错误的判断。顾名思义,文本对抗攻击即指针对文本数据展开的对抗攻击研究。本文分为上下两篇,简述文本对抗领域的攻击方法与防御方法。在上篇中我们介绍了文本对抗攻击的主流方法,本篇为下篇,将为大家介绍针对文本对抗攻击的防御方法。对抗攻击,也称作对抗样本生成,是由于模型判断边界与真实系统边界的不一致而导致的。对抗样本指的是一类通过对原始样本数据添加针对性的微小扰动而恶意构建的样本,其不会影响人类的感知判断,但会使深度学习模型产生错误的判断。顾名思义,文本对抗攻击即指针对文本数据展开的对抗攻击研究。本文分为上下两篇,简述文本对抗领域的攻击方法与防御方法。在上篇中我们介绍了文本对抗攻击的主流方法,本篇为下篇,将为大家介绍针对文本对抗攻击的防御方法。