您现在的位置是:首页 >要闻 > 2020-12-17 07:57:20 来源:

建立更好地理解人类目标的机器

导读 在心理学家费利克斯·沃纳肯(Felix Warneken)和迈克尔·托马塞洛(Michael Tomasello)进行的一项关于人类社会智能的经典实验中,一个18个

在心理学家费利克斯·沃纳肯(Felix Warneken)和迈克尔·托马塞洛(Michael Tomasello)进行的一项关于人类社会智能的经典实验中,一个18个月大的小孩看着一个人将一books书带到一个未打开的橱柜中。该名男子到达柜子时,笨拙地将书撞在柜子的门上几次,然后发出困惑的声音。

接下来发生了一些非凡的事情:幼儿愿意提供帮助。推断出该人的目标后,学步儿童走到柜子上,打开门,让该人将书本放进去。但是,生活经验如此有限的幼儿如何做出这种推断呢?

最近,计算机科学家将这个问题重定向到计算机上:机器如何做同样的事情?

进行这种类型的理解的关键因素可以说是使我们成为最人类的东西:我们的错误。就像幼儿只能从失败中推断出男人的目标一样,推断我们目标的机器也需要考虑到我们错误的行动和计划。

为了在机器中捕获这种社会智能,麻省理工学院计算机科学与人工智能实验室(CSAIL)以及脑与认知科学系的研究人员创建了一种能够推论目标和计划的算法,即使这些计划可能会失败。

这种类型的研究最终可用于改进一系列辅助技术,协作或看护机器人以及Siri和Alexa等数字助理。

谭志轩博士说:“这种能够解决错误的能力对于制造能够可靠地推断出我们的利益并采取行动的机器至关重要。” 麻省理工学院电气工程与计算机科学系(EECS)的学生,也是该研究的新论文的主要作者。“否则,人工智能系统可能会错误地推断出,由于我们未能实现更高的目标,这些目标毕竟是不希望的。我们已经看到了算法以自反和无计划地使用社交媒体为基础时会发生什么,我们将走上依赖和两极分化的道路。理想情况下,未来的算法将能够识别我们的错误,不良习惯和非理性,并帮助我们避免而不是加深它们。”

为了创建他们的模型,团队使用Gen(最近在麻省理工学院开发的一种新的AI编程平台)将符号AI规划与贝叶斯推理相结合。贝叶斯推理提供了一种将不确定的信念与新数据相结合的最佳方法,被广泛用于金融风险评估,诊断测试和选举预测。

该团队的模型比称为贝叶斯逆向强化学习(BIRL)的现有基准方法的执行速度快20到150倍,后者通过观察代理的行为来了解代理的目标,价值或回报,并尝试预先计算完整的策略或计划。新模型在推断目标中有75%的时间是准确的。

加州大学伯克利分校的Smith-Zadeh工程学教授Stuart Russell说:“ AI正在放弃将标准的固定目标赋予机器的'标准模型'。“相反,机器知道它不知道我们想要什么,这意味着关于如何从人类行为推断目标和偏好的研究成为AI的中心主题。本文认真地对待了这一目标;特别是,这是一个迈向建模并进而颠倒人类根据目标和偏好产生行为的实际过程。”