您现在的位置是:首页 >要闻 > 2020-12-03 12:42:57 来源:

使用线索和行动来帮助人们与人工智能相处

导读 佩恩表示,了解人们如何与支持人工智能的机器进行交互,并利用这些知识来增进人们对人工智能的信任,可以帮助我们与越来越多的机器人,聊天

佩恩表示,了解人们如何与支持人工智能的机器进行交互,并利用这些知识来增进人们对人工智能的信任,可以帮助我们与越来越多的机器人,聊天机器人和其他智能机器和谐相处。国家研究员。在本期《计算机媒介传播杂志》上发表的一篇论文中,S。Shyam Sundar,唐纳德·贝利萨里奥大学传播学院的媒体效应教授James P. Jimirro以及媒体效应研究实验室的联合主任提出了一种研究AI的方法或框架,可以帮助研究人员更好地研究人们如何与人工智能或人与AI交互(HAII)进行交互。

“这是试图系统地研究人工智能可能在心理上影响用户的所有方式,尤其是在信任方面,” Sundar说,他也是宾州州立计算与数据科学研究所(ICDS)的子公司。“希望本文先进的理论模型将为研究人员提供一个框架和一个词汇,以研究AI的社会心理影响。”

Sundar说,该框架确定了AI开发人员可以专注于获得信任和改善用户体验的两条路径(线索和操作)。提示是可以触发人们一系列精神和情感反应的信号。

他解释说:“提示路线是基于关于AI外观或表面效果的表面指标。”

Sundar补充说,有几个线索会影响用户是否信任AI。提示可以像使用类似人类的功能一样明显,例如某些机器人拥有的人脸,或者像Siri和Alexa这样的虚拟助手使用的类似于人类的声音。

其他提示可能更微妙,例如界面上的说明解释了设备的工作方式,例如Netflix解释了为什么向观众推荐某部电影时。

但是,根据Sundar的说法,这些提示中的每一个都可以触发不同的思维捷径或启发式方法。

“当人工智能被用户识别为机器而不是人类时,就像在现代聊天机器人中经常发生的那样,它会触发“机器启发式”,或者一种思维捷径,使我们自动应用对机器的所有刻板印象Sundar说:“我们可能认为机器是精确的,但我们也可能认为计算机和机器冷酷无情。”这些刻板印象反过来决定了我们对AI系统的信任程度。

Sundar建议飞机上的自动驾驶系统是AI过度信任会导致负面影响的一个例子。飞行员可能会自动信任自动驾驶系统,以至于他们放松了警惕,没有为飞机性能突然变化或需要他们干预的故障做好准备。他引用了这种“自动化偏差”来表明我们对机器性能的高度信任。

另一方面,人工智能也可能对某些人产生负面偏见。

Sundar说:“自动化偏差的反面是算法厌恶。” “有些人之所以讨厌,是因为他们过去可能被算法烧死,现在对AI深信不疑。他们可能被'deepfake'愚弄了,这些东西是使用AI技术制作的虚构视频,或者弄错了或从电子商务网站推荐产品,或者感到AI窥探到他们先前的搜索和购买中而侵犯了他们的隐私。”

Sundar建议开发人员特别注意他们可能为用户提供的提示。

“如果您在界面上提供清晰的提示,则可以帮助塑造用户的响应方式,但是如果您提供的提示不明确,则可以让用户的先前经验以及有关算法的传统理论或幼稚的概念接手,桑达尔说。

Sundar表示,除了提供提示之外,AI与人互动的能力还可以塑造用户体验。他称这为“行动路线”。