来自 科技 2020-05-28 17:30 的文章

恶意使用AI将对网络安全构成真正的威胁

恶意使用AI将对网络安全构成真正的威胁


我们应该为人工智能网络攻击变得更加普遍的未来做好准备。

网络安全专业人员越来越多地使用相同的自动化技术来保护其企业,是否还会对他们发起攻击?根据一份报告,这项研究证实了这一点,我和我的同事马克·布鲁斯(Marc Bruce)最近完成了瑞典国防研究局的工作。

人工智能(AI)工具用于分析数据和预测结果对许多行业都是福音,包括网络安全和国防行业。防病毒和网络威胁情报系统越来越多地使用机器学习来提高效率。例如,美国国防高级研究计划局(DARPA)和欧洲国防局(EDA)都在寻求将AI技术集成到其网络防御响应能力中。

但是,AI可能是一把双刃剑,一些业内最杰出的思想家警告 AI支持的网络攻击。在这场“猫与老鼠”游戏中,预见到如何将AI用于恶意网络攻击,并了解其未来潜力,将更好地为响应者做好准备并为其配备设备。

本文总结了报告“ 人工智能网络攻击 ”中的一些重要内容。

AI开始支持网络攻击 几家研究机构在2018年发布的具有里程碑意义的报告中都将AI滥用的巨大潜力和多样性变成了焦点 。该报告显示了AI、数字化、物理和社交恶意使用的总体潜力。

但是,已经确定人工智能可以在网络攻击中扮演重要角色。第一个AI支持的网络攻击,记录在2007年,一个交友聊天机器人明显冠以CyberLover的名称,描述显示了“社会工程学的前所未有的水平。” 该机器人依靠自然语言处理(NLP)来配置目标并生成包含欺诈性超链接的自定义聊天响应,从而因窃取个人数据而臭名昭著。据估计,CyberLover可以每三分钟建立一个新的关系。

到2016年:DARPA组织了大型网络挑战赛,其中主要参加者是机器而不是人类。在竞赛中,使用了AI支持的解决方案来检测、利用和修补漏洞。值得注意的是,这一挑战不仅吸引了研究机构的竞争者,而且吸引了国防工业综合体。

最近,在对未来滥用AI的担忧日益严重的情况下,联合国裁军研究所报道了网络作战中AI的规范和法律因素,重申了政府有责任制定有关使用和滥用新技术的政策。同时,网络安全公司Darktrace和IBM开始研究网络攻击中AI的特定技术用例。

在网络攻击中恶意使用AI以此为背景,在应对AI滥用时确定前进的方向至关重要。根据我们对主要是实验性AI原型的广泛、同行评审的研究,对想利用该技术来告知其攻击计划的网络攻击者而言,AI的数据聚合功能似乎是最重要的。从短期来看,绝对最强的案例是在网络攻击的初始侦查阶段。通过大量的应用,人工智能技术在数据分析方面表现出了极高的效率。AI网络威胁情报解决方案已经可用,包括IBM的Watson网络安全以及Cylance 和 CrowdStrike提供的产品 。因此,我们可以预期,由AI支持的对抗者能够有效地生成有关威胁缓解趋势,目标轮廓的情报,并大规模生成(已知)漏洞库。

监视的另一个恶意功能是AI执行重复任务的效率。从2010年的Ticketmaster事件中可以看出,击败Captchas的AI工具随时可用。验证码击败的实验研究也已经建立。但是,重复性任务(例如密码猜测、暴力破解和窃取以及自动生成漏洞利用程序)也应被视为有希望的基础,原型测试可能会成熟为更高级的解决方案。例如,某些实验(例如,密码强行和密码窃取)分别显示出超过50%和90%的成功率。

最后,欺骗和操纵似乎是源于AI的能力发展。在查看诸如CyberLover之类的相对较旧的案例时,似乎越来越迫切需要AI支持的网络钓鱼。实际上,有关AI支持的网络钓鱼的研究以及绕过网络钓鱼检测的AI工具,产生了不同的发现。但是,这并没有抵消AI在统计学上超过人类社会工程学尝试效率的潜力。

据称,由AI支持的攻击已经开始模仿目标网络上正常行为的模式,从而使其更难被发现。尽管网络行为分析技术已经用于安全性,但研究表明,该技术也可能出于恶意目的而被扭曲。此外,一个新兴的研究领域涉及攻击各种类型的分类器的能力,这些分类器可识别数据中的模式,例如识别垃圾邮件的垃圾邮件过滤器。随着NLP和其他AI分类器的新用途的出现,安全问题变得更加多样化。

展望未来我们应该为人工智能网络攻击变得更加普遍的未来做好准备。如前所述,人工智能的高级数据聚合功能可以帮助恶意行为者做出更明智的选择。尽管这些功能不一定会推动向更复杂的攻击的方向发展,但应该关注增加恶意活动规模的潜力。即使是简单攻击的自动化,也可能加剧数据盗窃和欺诈等趋势。

从长远来看,我们不应低估欺骗和操纵能力的发展可能会增加并使攻击复杂化的可能性。即使是开发AI的专家也开始担心各种欺骗的可能性,这些担忧涉及AI文本,图像和音频生成的各个领域。在诸如智能汽车之类的实现AI的物理系统的未来中,防御者和攻击者之间的AI军备竞赛可能最终会影响人身伤害的风险。

尽管研究人员全神贯注于使用AI保护网络领域的任务,但我们研究的令人担忧的结论之一是,这些努力可能不足以防止AI的恶意使用。但是,通过预期滥用AI会带来什么后果,我们现在可以开始准备和定制各种更全面的对策。