您现在的位置是:首页 >财经 > 2021-05-02 12:14:47 来源:

利用防御性人工智能剥夺网络攻击者的优势

导读 人工智能的现实应用已经发展得如此之快并且变得如此普遍,以至于很难通过日常工作来完成,例如驾驶或发送消息,而不会看到他们的影响。在网

人工智能的现实应用已经发展得如此之快并且变得如此普遍,以至于很难通过日常工作来完成,例如驾驶或发送消息,而不会看到他们的影响。在网络安全领域也是如此,攻击者和防御者都希望人工智能获得优势。它的兴起恰逢数据本身的激增,随着我们越来越依赖AI来理解这个以数据为中心的新世界,我们还需要了解其安全隐患。

利用防御性人工智能剥夺网络攻击者的优势

几十年来,维护者通过检测签名或指示恶意活动的特定模式来抵御攻击。这种自下而上的方法是被动的。新的攻击需要部署新的签名,因此攻击者总是在数字混战中领先一步。下一代,基于人工智能的解决方案通过采用自上而下的方法并将大型活动数据集输入统计模型来解决这个问题。从签名到统计的这种转变意味着防御可以是主动的,并且更好地推广到新的攻击。

人工智能防御已经蓬勃发展,现在通常应用于垃圾邮件过滤,恶意文件或URL检测等经典问题。这些模型通常依赖于有监督的机器学习算法,这些算法将函数从其输入(例如“https://google.com”或“http://g00glephishpage.com”等域名)映射到输出(例如“良性的“或”恶意的“)。虽然监督学习可以明确地映射到防御者区分良性和恶意的需要,但由于其依赖于预先存在的标签,因此实施起来也是昂贵且耗时的。数据标签需要前期工作,需要领域专业知识,并且不能总是在其他地方重新利用,这意味着构建有效的基于AI的防御存在根本瓶颈。

进攻性AI的结构优势

基于人工智能的防御受到其他可利用的弱点的影响。由于模型的准确性受其标签的保真度控制,因此 当模型的创建者在有目的腐败标签注入的数据集上训练模型时,攻击者 可以使模型中毒。这允许攻击者构建绕过检测的特定样本。其他模型系统地容易受到轻微扰动的输入,导致它们以极其高的置信度产生错误。所谓的对抗性示例最好通过物理攻击来说明,例如在停车标志上贴上贴纸来欺骗自动驾驶汽车中使用的物体识别器,并植入隐藏的声音命令来欺骗智能扬声器中使用的语音识别器来报警。

虽然这些例子可能会让普通公民接近家乡,但对于网络安全专业人士来说,类似的错误可能意味着违规和促销之间的差异。攻击者越来越多地转向自动化,他们很快就会转向AI来利用这些弱点。简而言之,“红队”攻击者可以从数据以及“蓝队”防守者那里获益。

围绕鱼叉式网络钓鱼,密码破解,Captcha颠覆,隐写术,Tor去匿名化和防病毒逃避的理论,基于AI的红色团队工作流程越来越多。在每次模拟中,攻击者利用易于访问的数据,证明数据标记瓶颈使基于AI的攻击比防御性攻击更容易实现。

乍一看,这似乎是历史重演。攻击者总是因为利害攸关而享有优势。蓝队只有在检测达到100%%成功时才真正获胜,而红队即使只有一次成功,也只有100分。

这一次有什么不同是一个更广泛的行业趋势,不幸的是,红色团队受益。我们在图像识别等问题上取得如此大进展的原因之一是其研究人员因协作而获得奖励。另一方面,网络安全研究人员往往受到限制,因为他们的数据过于敏感甚至非法分享,或被视为知识产权,这使得供应商在激烈竞争的网络安全市场中占据了一席之地。攻击者可以利用这种分散的格局和缺乏数据共享来超越防御。

加剧这种不对称性,应用AI退出博士学位的障碍只是一个时间问题。论文到高中课堂。免费的教育资源,可用的数据集和预先训练的模型,访问强大的基于云的计算资源(如GPU)和开源软件库都会降低AI新手的门槛,因此也会成为攻击者。深度学习本身实际上比旧的范例更加用户友好,并且在许多情况下,它在没有先前所需的专业手工工程的情况下产生最先进的准确性。

暴风雨前的平静,所以得到你的雨衣

鉴于这些现实,“一美元的进攻胜过一美元的防御”这一短语肯定似乎适用于恶意使用人工智能。至于现在,良好的老式手动攻击仍然存在,并且没有可靠的证据证明在野外发生基于AI的攻击。但是,正是在这个精确的时刻,我们应该考虑如何改善数据标签瓶颈并减少未来影响的可能性。

尽管可能存在可能性,但维护者确实有可用的工具来帮助他们减少标记数据的成本和时间。众包标签服务提供廉价的按需劳动力,其共识可以达到专家的准确性。该交易的其他重要技巧包括通过以下策略加速基于AI的防御部署:

主动学习,相对较慢的人类专家只标记信息量最大的数据。

半监督学习,其中在有限标记数据上训练的模型从可用的未标记数据中学习问题结构。

转移学习,其中先前针对具有大量可用标记数据的问题进行训练的模型针对具有有限标记数据的新问题而定制。

最后,最好的防守是一个很好的进攻。如果小心谨慎,公司可以制作 强化基于AI的防御的对抗性样本,这意味着防御者可以先发制人地对自己的模型进行攻击,以帮助堵塞任何漏洞。

虽然数据标记瓶颈为基于AI的攻击提供了战术优势,但是在攻击者释放这些威胁之前,防御者现在可以而且应该采取措施来平衡竞争环境。

Philip Tully是ZeroFOX的首席数据科学家,该公司在社交,移动,数字和协作平台上检测并修复企业及其员工面临的威胁。