您现在的位置是:首页 >要闻 > 2020-12-16 17:17:15 来源:

用于建模人机信任的概念框架

导读 宾夕法尼亚州立大学,麻省理工学院和佐治亚理工学院的研究人员最近开发了一个概念框架来对人机信任现象建模。在ACM数字图书馆上发表的一篇

宾夕法尼亚州立大学,麻省理工学院和佐治亚理工学院的研究人员最近开发了一个概念框架来对人机信任现象建模。在ACM数字图书馆上发表的一篇论文中概述了他们的框架,该框架使用受博弈论启发的计算表示来表示信任,信任是使用社会心理学理论定义的概念。

在专业和个人环境中,信任在人际互动中起着关键作用。当一个人信任另一个人时,他们可能会决定做某事,使他们面临相当大的风险,并相信另一个人的行为会在某种程度上减轻这种风险。

在定义信任时,许多研究人员都认为这意味着一个人处于脆弱状态,而这种脆弱性取决于他人的行动,动机或行为。最近这项研究的三位研究人员Alan R. Wagner,Paul Robinette和Ayanna Howard希望创建一个可用于模拟人与机器人之间人际信任的框架。

Robinette解释说:“我们对开发知道何时信任人类,了解什么情况需要信任并吸引人类适当信任的机器人感兴趣。” “最初,我们受到研究的鼓舞,这些研究表明,有时人们会在机器人要求他们做些奇怪的事情时,例如扔掉昂贵的教科书,或将橙汁倒在盆栽植物上。在越来越多的情况下,人类会陷入困境。因此,我们希望开发一个框架,使机器人能够理解与人类之间的信任关系。”“机器人的风险(例如自动驾驶汽车,无人驾驶的无人机,飞过机器人的保安人员等)。

瓦格纳及其同事开发的概念框架产生了一些与人机信任相关的可检验的假设。在他们的研究中,研究人员检查了这些生成的假设并进行了一系列实验,收集了支持其框架并与之冲突的证据。

Robinette说:“信任框架始于Alan的研究,该定义以计算机以及机器人可以利用的方式定义信任。”

瓦格纳(Wagner)在先前的工作中将情境信任定义为“由信任者持有的一种信念,即在信任者将其结果置于风险之中的情况下,受托人将以减轻信任者风险的方式行事”。他的定义主要集中在给定情况下涉及的风险,也强调了一个人/机器人将采取行动降低其他人/机器人的风险的信念。