如何引诱分类器犯错?南大周志华等提出用自编码器生成恶意训练数据
现阶段,AI 安全性研究逐渐成为学术界和工业界的重要议题和研究方向。之前大多数研究放在了测试阶段的攻击(例如对抗样本)。在论文《Learning to Confuse: Generating Training Time AdversarialData with Auto-Encoder》中,来自南京大学和创新工场 AI 工程院的研究者提出使用类似自编码器的网络来生成这样的扰动,此类扰动具有较强的鲁棒性和迁移能力,并在 CIFAR-10 等数据集上验证了所提方法的有效性。