您现在的位置是:首页 >财经 > 2020-12-11 09:13:29 来源:

保护智能机免受智能攻击

导读 机器通过处理从传感器收集的数据来学习的能力,是自动驾驶汽车,医疗设备和许多其他新兴技术的基础。普林斯顿大学的研究人员发现,这种学习

机器通过处理从传感器收集的数据来学习的能力,是自动驾驶汽车,医疗设备和许多其他新兴技术的基础。普林斯顿大学的研究人员发现,这种学习能力使系统容易受到黑客的攻击。

在最近的一系列论文中,一个研究团队研究了应用于人工智能(AI)的对抗策略如何例如欺骗交通效率系统导致僵局或操纵与健康相关的AI应用程序以揭示患者的私人医疗保健。历史。作为这种攻击的一个例子,该团队将驾驶机器人对道路标志的感知从限速更改为“停止”标志,这可能导致车辆以高速公路速度危险地刹车。在其他示例中,他们将停车标志更改为多种其他交通指示。

普林斯顿大学电气工程系的首席研究员兼副教授Prateek Mittal说:“如果机器学习是未来的软件,那么我们将成为确保它安全的非常基本的起点。” “要使机器学习技术发挥其全部潜能,我们必须了解机器学习如何在对手面前出现。这是我们面临的巨大挑战。

就像软件容易被计算机病毒或通过诈骗者通过网络钓鱼和其他违反安全性的手段成为目标的用户被黑客和感染一样,基于AI的应用程序也有自己的漏洞。然而,适当保障措施的部署滞后。到目前为止,大多数机器学习开发都发生在良性,封闭的环境中,这与现实世界截然不同。

Mittal是了解新兴对抗性机器学习漏洞的先驱。从本质上讲,这种攻击会导致AI系统破坏学习过程,从而产生意想不到的,可能是危险的结果。米塔尔(Mittal)的小组在最近的一系列论文中描述并演示了三种广泛的对抗性机器学习攻击。

很好地毒化数据

第一次攻击涉及恶意代理将伪造的信息插入AI系统正在学习的数据流中,这种方法称为数据中毒。一个常见的例子是大量用户的电话报告交通状况。这样的众包数据可用于训练AI系统以开发模型,以更好地集合自动驾驶汽车路线,减少拥堵和燃油浪费。