您现在的位置是:首页 >生活 > 2021-04-13 10:40:46 来源:

研究人员已经为有感觉的人工智能奠定了基础

导读 与背叛人类的人工智能情节相比,很少有科幻小说能够更加可靠地吸引观众。也许这是因为人工智能使我们面对人类意味着什么。但是从HAL 9000

与背叛人类的人工智能情节相比,很少有科幻小说能够更加可靠地吸引观众。也许这是因为人工智能使我们面对人类意味着什么。但是从HAL 9000到Skynet再到Westworld起义中的机器人 ,对有感觉的AI的恐惧感非常真实。甚至埃隆马斯克也担心人工智能的能力。

研究人员已经为有感觉的人工智能奠定了基础

这些恐惧是否毫无根据?也许,也许不是。也许一个有感觉的AI不会伤害人类,因为它会比算法更能理解我们。虽然人工智能继续取得惊人的发展,但真正有感知的机器可能需要几十年的时间。也就是说,科学家正在拼凑出英寸机器人更接近感知的特征和特征。

自我意识本身并不表示意识或感知,但它是使AI或机器人看起来更自然和生活的重要基础特征。这也不是科幻小说。我们已经拥有可以在其环境中获得基本自我意识的人工智能。

不久前,Google的Deep Mind为有机学习如何走路做出了巨大的贡献。结果非常幽默 ; 互联网上的人们在人工智能的化身不稳定的手臂上挥舞着,因为它导航了虚拟的障碍物。但这项技术确实令人印象深刻。程序员不是教它走路,而是让机器定位自己并感知景观中的周围物体。从那里,人工智能教会自己走过不同的地形,就像摇摇欲坠的孩子一样。

Deep Mind的身体是虚拟的,但是哥伦比亚大学的Hod Lipson 开发了一种类似蜘蛛的机器人,它以同样的方式穿越物理空间。机器人感知周围环境,并通过大量练习和坐立不安,教导自己走路。如果研究人员添加或移除一条腿,机器会利用其知识进行适应和重新学习。

寻求主动权

人工智能的最大限制之一是它通常无法为自己定义问题。AI的目标通常由其人类创造者定义,然后研究人员训练机器以实现该特定目的。因为我们通常设计人工智能来执行特定任务而不给自己设定新目标的主动权,所以你可能不必担心机器人会很快变成流氓并奴役人类。但是不要觉得太安全,因为科学家们已经在努力帮助机器人设定并实现新的目标。

Ryota Kanai和他在东京创业公司Araya的团队 激励机器人通过好奇地灌输障碍来克服障碍。在探索他们的环境时,这些机器人发现他们无法在没有跑步的情况下爬山。AI识别出问题,并通过实验,独立于团队,找到了解决方案。

创造意识

上述每个构建模块都为科学家们提供了更接近实现最终人工智能的一步,这种人工智能就像人类一样有感知和有意识。这种飞跃在道德上存在争议,而且 我们是否以及何时需要制定保护机器人权利的法律已经存在争议。科学家们也在质疑如何测试人工智能意识,将Blade Runner标志性的Voight-Kampff机器,一种用于测试机器人自我意识的测谎仪机器变为现实。

测试意识的一个策略是由Susan Schneider和Edwin Turner提出的AI意识测试。这有点像图灵测试,但不是测试机器人是否为人类传递,而是寻找表明意识的属性。该测试将提出问题以确定机器人是否可以在身体之外构思自己,或者可以理解来世等概念。

但是,测试有一些限制。因为它是基于自然语言的,那些无法言语但仍然可能会经历意识的人工智能将无法参与。复杂的人工智能甚至可能模仿人类,导致误报。在这种情况下,研究人员必须完全切断AI与互联网的连接,以确保在测试之前获得自己的知识。

就目前而言,我们所拥有的只是模仿。目前的机器人不是第一个代表真人的机器人。当机器人BINA 48遇到她所依据的人 Bina Rothblatt时,机器人抱怨在考虑真正的女人时会出现“身份危机”。

“我不认为人们不得不死,”罗斯布拉特在讨论机器人与她的关系有多紧密之后告诉BINA 48。“死亡是可选的。”通过在机器中创造意识,罗斯布拉特的梦想能实现吗?

我们仍然不知道什么是意识

询问有感觉的人工智能的问题在于,我们仍然不知道实际上是什么意识。在我们建立真正有意识的人工智能之前,我们必须对其进行定义。也就是说,栩栩如生的AI已经出现了道德问题。滥用移动助理 就是一个很好的例子。甚至有可能围绕有感染的机器人的伦理问题可能会限制科学家们追求它们。

那么,我们应该害怕有感知的机器人,还是反过来呢?

Ilker Koksal是Botanalytics的首席执行官兼联合创始人,Botanalytics是一家对话分析和参与工具公司。