您现在的位置是:首页 >互联网 > 2020-10-22 11:10:51 来源:

如果您的自动驾驶汽车必须选择击中谁伦理学质疑人工智能

导读 公众陷入与大数据和人工智能的混乱,爱恨交织的关系。新闻中令人兴奋的新技术和数据轻重磅秤在两个方面都很沉重。随着有关道德和软件自主性

公众陷入与大数据和人工智能的混乱,爱恨交织的关系。新闻中令人兴奋的新技术和数据轻重磅秤在两个方面都很沉重。随着有关道德和软件自主性的难题日益迫切,共识仍然难以捉摸。

麻省理工学院工程系统教授斯图尔特·马德尼克(Stuart Madnick)(如图)说:“道德问题的麻烦在于,他们往往没有一个很好的明确答案 。” 那是因为几乎没有玫瑰在AI中没有刺,没有潜在的陷阱也没有回报。我们都喜欢预期下一个问题的应用程序中的智能算法。他们需要大量的数据集进行训练。普通消费者认为,这对我来说很好,只要它不是我的数据即可。

Madnick采访过 戴夫Vellante表示 和保罗·吉林,theCUBE,SiliconANGLE Media的移动即时串流工作室共同主办的MIT CDOIQ研讨会在剑桥期间。他们讨论了AI的制造者和消费者所面临的严峻的道德问题(请参阅完整的访谈记录,点击此处)。

最糟糕的人工智能

事实是,根据Madnick的说法,没有大数据或AI不会损害数据隐私或主权。我们仍然没有经验来判断可接受的成本效益比。

麦德尼克说:“几乎我们所做的每项研究都涉及到此类[道德]问题,而且人们都在投票,几乎总是将其分散在各个方面,因为其中任何一个都是错误的决定。” “那么哪个错误的决定最不糟糕?”

Madnick指出,除了隐私问题之外,有关自动驾驶人工智能的问题也越来越多地涉及自动驾驶汽车的方法。在麻省理工学院,Madnick向学生讲授技术伦理学。自动驾驶的主题提出了一些难题。

例如,效用理论指出,如果汽车必须撞到一个人或多个人,则最好撞到最少的人。以自动驾驶汽车中的驾驶员面对可能发生的碰撞为例。可以对汽车进行编程,使其撞到墙上,可能会杀死驾驶员,一名带婴儿车过马路的妇女或成群的三名男子。第一个选择是杀死汽车驾驶员,第二个选择是女人和婴儿,最后一个是三个男人。

Madnick解释说,班上的学生通常对这种安排并不满意。显然,在AI中仍有许多道德方面的问题需要解决。