帮助 本站公告
您现在所在的位置:网站首页 > 知识中心 > 文献详情
文献详细Journal detailed

对抗环境中对毒化攻击的鲁棒学习算法

导  师: 陈百基(Patrick Chen)

授予学位: 硕士

作  者: ();

机构地区: 华南理工大学

摘  要: 随着智能化生活的不断深入,机器学习逐渐从学术领域迈向了现实生活。然而在现实应用中,总是有一些攻击者试图攻击学习过程从而从中获利。在这个存在攻击者的情况下,如何保障机器学习的效果成为了人工智能领域中一个热门的研究方向。其中对于学习过程至关重要的训练集一旦被攻击者攻击,甚至只需要攻击很少的一部分数据都会使得整个学习过程的效果大打折扣,在学术领域中,攻击训练集的研究为对抗性环境下的毒化攻击的研究,因此如何抵御对抗性环境中的毒化攻击成了一个十分重要且具有现实意义的课题。本文针对现有的毒化攻击防御常用的算法很难解决具有很少的验证样本和不特定的基础分类器下的问题。引入了迁移学习算法概念,验证了迁移学习算法在对抗性环境下抵御毒化攻击的可行性。并针对原本的迁移学习算法在毒化攻击下存在的问题做出了一些改进。以下为本文的研究内容和创新点。本文引入迁移学习中的实例迁移经典算法TrAdaBoost来对抗毒化攻击问题中的标签翻转攻击。通过实验验证了使用迁移学习算法在验证集很少的情况下对于毒化攻击的对抗的可行性,以及较之毒化攻击常用的抵御方法更加稳定的效果,并且并不局限于一种特定的标签攻击方法和基础分类器。在此基础上,从TrAdaBoost算法本身以及毒化攻击样本对算法学习过程的影响的角度出发,讨论了直接使用原本的TrAdaBoost算法的问题以及改进方向。基于迁移学习算法TrAdaBoost能够有效的抵抗毒化攻击,且算法在对抗性环境中有些不适应的部分的情况,本文提出了4个改进的算法。分别为:改进TrAdaBoost算法中目标数据集的权重更新方式,使得每次学习时从不同的角度学习目标数据集以便更加充分的吸收目标数据集的知识,并且将目标数据集的训练误差作为了知识的

关 键 词: 毒化攻击 迁移学习 鲁棒学习

领  域: []

相关作者

相关机构对象

相关领域作者