您现在的位置是:首页 >人工智能 > 2021-11-26 15:33:00 来源:

未来的人工智能系统将如何为我们所有人做出最合乎道德的选择

导读 人工智能(AI)已经在商业、医疗保健和制造领域做出决策。但人工智能算法通常仍会从申请检查和做出最终决定的人那里得到帮助。如果人工智能系

人工智能(AI)已经在商业、医疗保健和制造领域做出决策。但人工智能算法通常仍会从申请检查和做出最终决定的人那里得到帮助。如果人工智能系统必须做出独立的决定,而那些决定对人类来说可能意味着生死,会发生什么?

长期以来,流行文化描绘了我们对人工智能的普遍不信任。在2004年的科幻电影《我,机器人》中,德尔·斯普纳(威尔·史密斯饰演)在一场车祸中被一个人救起后对机器人产生了怀疑,而一名12岁的女孩则被淹死。他说:“我是合乎逻辑的选择。它计算出我有45%的生存机会。莎拉只有11%的机会。那是某人的孩子——11%绰绰有余。一个人会知道的.”

与人类不同,机器人缺乏道德良知,并遵循编入其中的“道德”。同时,人类的道德是高度可变的。在任何情况下做的“正确”的事情都取决于你问的是谁。

为了让机器能够帮助我们充分发挥其潜力,我们需要确保它们的行为符合道德规范。那么问题就变成了:AI开发人员和工程师的道德规范如何影响AI的决策?

自动驾驶的未来

想象一下完全自主的自动驾驶汽车的未来。如果一切按预期进行,早上通勤将是准备一天的会议、了解新闻或坐下来放松的机会。

但是如果出现问题怎么办?汽车接近红绿灯,但突然刹车失灵,计算机不得不在瞬间做出决定。它可以突然转向附近的杆子并杀死乘客,或者继续前进并杀死前方的行人。

控制汽车的计算机只能访问通过汽车传感器收集的有限信息,并且必须基于此做出决定。尽管这看起来很戏剧化,但我们距离可能面临这样的困境只有几年的时间。

自动驾驶汽车通常会提供更安全的驾驶,但事故将不可避免——尤其是在可预见的未来,当这些汽车将与人类驾驶员和其他道路使用者共享道路时。

特斯拉还没有生产全自动汽车,尽管它计划这样做。在碰撞情况下,如果人类驾驶员处于控制之中,特斯拉汽车不会自动操作或停用自动紧急制动(AEB)系统。

换句话说,驾驶员的行为不会受到干扰——即使是他们自己造成了碰撞。相反,如果汽车检测到潜在碰撞,它会向驾驶员发送警报以采取行动。

然而,在“自动驾驶”模式下,汽车应该为行人自动刹车。有人争辩说,如果汽车可以防止碰撞,那么它就有道德义务在每种情况下超越驾驶员的行为。但是我们会希望自动驾驶汽车做出这个决定吗?

人生有什么价值?

如果汽车的计算机可以评估车内乘客和行人的相对“价值”会怎样?如果它的决定考虑了这个值,从技术上讲,它只是进行成本效益分析。

这听起来可能令人震惊,但已经有一些技术可以让这种情况发生。例如,最近重新命名的Meta(前身为Facebook)具有高度进化的面部识别功能,可以轻松识别场景中的个人。

如果将这些数据整合到自动驾驶汽车的人工智能系统中,该算法就可以为每条生命赋予美元价值。麻省理工学院的专家及其同事在2018年进行的一项广泛的研究中描述了这种可能性。

通过道德机器实验,研究人员提出了各种自动驾驶汽车场景,迫使参与者决定是杀死无家可归的行人还是行人。

结果显示,参与者的选择取决于他们所在国家/地区的经济不平等程度,其中经济不平等程度越高,他们就越有可能牺牲无家可归的人。

虽然没有完全进化,但这种数据聚合已经在中国的社会信用体系中使用,它决定了人们拥有哪些社会权利。

医疗保健行业是我们将看到人工智能做出可能拯救或伤害人类的决策的另一个领域。专家们越来越多地开发人工智能,以发现医学成像中的异常情况,并帮助医生确定医疗保健的优先级。

目前,医生说了算,但随着这些技术越来越先进,如果医生和人工智能算法不做同样的诊断,会发生什么?

另一个例子是自动用药提醒系统。如果患者拒绝服药,系统应该如何反应?这如何影响患者的自主权以及系统的整体问责制?

人工智能驱动的无人机和武器在道德上也令人担忧,因为它们可以做出杀人的决定。对于是否应该完全禁止或管制此类技术,存在着相互矛盾的观点。例如,自主无人机的使用可能仅限于监视。

一些人呼吁对军用机器人进行道德编程。但这引发了关于程序员在无人机误杀平民的情况下的责任问题。

哲学困境

关于人工智能必须做出的道德决定,存在许多哲学辩论。典型的例子是电车问题。

人们常常难以做出可能改变生活结果的决定。在评估我们对此类情况的反应时,一项研究报告称,选择可能因一系列因素而异,包括受访者的年龄、性别和文化。

对于AI系统,算法训练过程对于它们在现实世界中的工作方式至关重要。一个国家开发的系统可能会受到该国观点、政治、伦理和道德的影响,使其不适合在另一个地方和时间使用。

如果系统正在控制飞机或引导导弹,您需要高度自信它是用代表其使用环境的数据进行训练的。

技术实施中的失败和偏见的例子包括种族主义皂液器和不适当的自动图像标签。

人工智能不是“好”或“坏”。它对人们的影响将取决于其开发人员的道德规范。因此,为了充分利用它,我们需要就我们认为的“道德”达成共识。

虽然私营公司、公共组织和研究机构都有自己的人工智能道德准则,但联合国建议制定他们所谓的“全面的全球标准制定工具”,以提供全球道德人工智能框架——并确保人权得到保护。