关灯
请选择 进入手机版 | 继续访问电脑版

人工智能安全——对抗攻击分析

[复制链接]
kepu0830 发表于 5 天前 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
论文
题名: 人工智能安全——对抗攻击分析
专业: 信息科学 » 计算机
学位: 学士
语种: 中文
 
    随着人工智能深度学习成为研究热点,其在医疗、生物,金融、自动驾驶各个领域皆有所应用,并且取得丰硕的成果。深度学习不同于传统的基于特征提取的机器学习,不需要使用者掌握太多的专业知识,只需调节好参数即可取得很好的效果,但对抗样本对于人脸识别也能导致错误分类造成影响。

    人工智能深度学习应用极其广泛,人工智能安全也开始引起人们的关注,攻击者在正常样本中增加了细微的扰动,导致人工智能深度学习模型分类判断出现错误,这种行为称为对抗样本攻击。在汉斯出版社《计算机科学与应用》期刊中,有论文综述对抗样本攻击的研究现状,研究了对抗样本攻击的经典算法:FGSM、DeepFool、JSMA、CW,分析了这几种经典对抗算法的生成对抗样本的效率及其对深度学习模型的误导效果,为对抗样本检测和防御算法设计提供理论指导。

    首先明确定义,当采用深度学习的方式完成一项分类任务时,需要使用分类器;分类器的定义:利用给定的类别已知的训练数据来学习分类规则和分类器,然后对未知数据进行分类。对抗样本是一种通过指定算法进行处理的图片,在原始样本加入部分扰动,使得分类器改变对于原有的样本的分类。对抗样本产生于训练时的样本的覆盖率的缺陷,识别过程中,训练集不可能完全覆盖所有可能,往往测试集与训练集有部分重复,结果产生了很小几率的分类错误。在分类过程中,基于对抗样本所具有的迁移性,其对于很多网络结构都具有一定欺骗性。

    该文介绍了对抗样本概念与分类,对比分析了四种经典对抗样本攻击算法。通过实验得出结论,FGSM效率最高,对抗样本与原图的差距较小,后续研究者在检测与防御中应着重处理有关FGSM算法的攻击;CW算法效率较低,对抗样本与原图的差距较小,难以被人眼识别,且具有较强的迁移性,后续研究者在检测与防御中应注重CW攻击的威胁。

    该论文应对当前对抗攻击方法较多且较缺乏统一的对比分析与归纳,使得检测与防御对抗攻击的研究者难以权衡研究对象,所以设计并制作了具有针对性的比较实验,为后续研究者提出检测与防御算法所应该针对哪些攻击性较强的对抗攻击提供方向,对人工智能安全的攻击与防范进行具体的理论指导。该文实验分析主要针对MNIST数据集,今后可以拓展到Cifar和ImageNet等多个数据集,至今研究者已经提出了多种的攻击、检测和防御方法,在人工智能时代之际,对抗攻击所产生的安全威胁逐渐显露,研究人工智能安全与对抗攻击迫在眉睫;与此同时伴随对抗攻击的检测与防御也是未来所应当发展的领域。

最近访客

  • kepu0830
    2019-12-03
  • gradzhan
    2019-12-07
回复 送花

使用道具 举报

 
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则


0威望

40盟币

0关注

0粉丝

13帖子

排行榜
作者专栏
关闭

站长推荐上一条 /2 下一条

登录后可将在线时长兑换成盟币 ,连续在线 [1] 小时后,每小时 [0.5] 盟币.
×

你已累计兑换次数 0

你已累计兑换积分 0盟币

关注我们:微信订阅号

官方微信

APP下载

全国服务热线:

4000-018-018

公司地址:上海市嘉定区银翔路655号B区1068室

运营中心:成都市锦江区东华正街42号广电仕百达国际大厦25楼

邮编:610066 Email:3318850993#qq.com

Copyright   ©2015-2016  博研科学网Powered by©Discuz!技术支持:迪恩网络    ( 粤ICP备14074656号-1 )|网站地图