您现在的位置是:首页 >综合 > 2020-11-24 08:38:03 来源:

一种思考机器学习的新方法

导读 深度神经网络,通过使用数学模型来处理图像和其他数据而构建的多层系统,是人工智能的基石。它们具有看似复杂的结果,但也有可能被愚弄,范

深度神经网络,通过使用数学模型来处理图像和其他数据而构建的多层系统,是人工智能的基石。它们具有看似复杂的结果,但也有可能被愚弄,范围从相对无害(将一种动物误识别为另一种动物)到如果引导自动驾驶汽车的网络将停车标志误解为表明安全的停车标志,则可能致命。继续。

休斯顿大学的一位哲学家在发表于《自然机器智能》上的一篇论文中暗示,关于这些假定故障背后原因的普遍假设可能是错误的,这些信息对于评估这些网络的可靠性至关重要。

随着机器学习和其他形式的人工智能越来越深入地融入社会,自动柜员机的一切应用大学网络哲学副教授卡梅伦·巴克纳(Cameron Buckner)说,对于网络安全系统,当深度神经网络系统在面对信息时会误判图像或其他数据时,了解由研究人员称为“对抗性例子”而造成的明显故障的根源至关重要。在用于构建网络的培训输入之外。它们很少见,因此被称为“对抗性”,因为它们通常是由另一个机器学习网络创建或发现的-机器学习领域中的一种边缘技术,介于创建对抗性示例的更复杂方法与检测和避免它们之间的更复杂方法之间。

巴克纳说:“这些对抗性事件中的一些反而可能是人工产物,为了更好地了解这些网络的可靠性,我们需要更好地了解它们是什么。”

换句话说,不发火可能是由网络需要处理的内容和所涉及的实际模式之间的相互作用引起的。这与完全被误解不是完全一样的。

巴克纳写道:“理解对抗性例子的含义需要探索第三种可能性:至少其中一些模式是人工制品。” “……因此,目前简单地丢弃这些模式既有代价,也有天真地使用它们的危险。”

导致这些机器学习系统犯错误的对抗事件不一定是故意的渎职造成的,但这是最高的风险所在。

巴克纳说:“这意味着恶意行为者可能欺骗依赖于本来可靠的网络的系统。” “那有安全应用程序。”

例如,基于面部识别技术的安全系统可能会被黑客入侵,以允许违规行为发生,或者在交通标志上贴上贴花纸,以使自动驾驶汽车误解该标志,即使这些标志对观察者无害。

先前的研究发现,与先前的假设相反,存在一些自然发生的对抗性示例-机器学习系统通过意外交互而不是通过数据错误来误解数据的时间。它们很少见,只有通过使用人工智能才能发现。

但是它们是真实的,巴克纳说这表明需要重新考虑研究人员如何处理异常或伪像。

这些工件还没有被很好地理解。Buckner提供了照片中镜头眩光的类比-这种现象不是由相机镜头的缺陷引起的,而是由光线与相机的相互作用产生的。

如果您知道如何解释,镜头光晕可能会提供有用的信息,例如太阳的位置。他说,这提出了一个问题,即由人工制品引起的机器学习中的不良事件是否也提供有用的信息。

同样重要的是,巴克纳说,这种新的思考方式会影响工件影响深度神经网络的方式,这表明不应将网络误读自动视为深度学习无效的证据。

他说:“其中一些对抗性事件可能是人工产物。” “我们必须知道这些工件是什么,这样我们才能知道网络的可靠性。”