您现在的位置是:首页 >综合 > 2020-12-11 09:05:15 来源:

人工智能可能成为积极的社会变革的力量

导读 人工智能(AI)已经以引人注目的方式重新构造了世界。数据驱动着我们的全球数字生态系统,人工智能技术揭示了数据的模式。智能手机,智能家居

人工智能(AI)已经以引人注目的方式重新构造了世界。数据驱动着我们的全球数字生态系统,人工智能技术揭示了数据的模式。智能手机,智能家居和智能城市会影响我们的生活和互动方式,人工智能系统越来越多地参与招聘决策,医疗诊断和司法判决。此方案是乌托邦式还是反乌托邦式取决于您的观点。

反复列举了AI的潜在风险。杀手机器人和大规模失业是人们普遍关心的问题,而有些人甚至担心人类的灭绝。更乐观的预测认为,到2030年,人工智能将为世界经济增加15万亿美元,并最终使我们走向某种社会的必杀技。

我们当然需要考虑这些技术对我们社会的影响。一个重要的问题是,人工智能系统会加剧现有的社会偏见,从而造成破坏性影响。这种现象的几个臭名昭著的例子受到了广泛的关注:产生性别歧视输出的最先进的自动机器翻译系统,以及将黑人分类为大猩猩的图像识别系统。

之所以出现这些问题,是因为此类系统使用数学模型(例如神经网络)来识别大量训练数据中的模式。如果该数据以各种方式严重歪斜,那么受过训练的系统将不可避免地学习和再现其固有偏差。偏向自主的技术存在问题,因为它们可能使诸如妇女,少数民族或老年人等群体边缘化,从而加剧了现有的社会失衡。

例如,如果对AI系统进行了关于警察逮捕数据的培训,那么现有逮捕模式中出现的任何有意识或无意识的偏见都将通过在该数据上受过训练的“预测性警务” AI系统进行复制。认识到这一点的严重影响,各种权威组织最近建议,所有AI系统都应接受无偏数据的培训。欧盟委员会在2019年初发布的道德准则提出了以下建议:“收集数据时,可能包含社会构造的偏见,不准确性,错误和错误。在使用任何给定数据集进行培训之前,必须解决这些问题。”

处理偏差数据

这一切听起来都足够明智。但不幸的是,有时根本不可能在训练之前确保某些数据集没有偏见。一个具体的例子应该澄清这一点。

所有最新的机器翻译系统(例如Google Translate)都经过句子对训练。英语-法语系统使用将英语句子(“她很高”)与等效的法语句子(“ elle est grande ”)相关联的数据。在给定的一组训练数据中,可能有5亿个这样的配对,因此总共有10亿个单独的句子。如果我们想防止所得的系统产生如下性别歧视输出,则需要从此类数据集中消除所有与性别相关的偏见:

输入:妇女开始开会。他们有效地工作。

输出:莱斯FEMMES ONT开始留尼汪岛。它可以改善身体状况。

法语翻译是使用Google翻译于2019年10月11日生成的,并且是错误的:“ Ils ”是法语中的男性复数主语代词,尽管上下文明确表明正在提及女性,但它还是出现在此处。这是经典的例子,由于训练数据存在偏差,自动化系统会优先使用男性默认值。

通常,翻译数据集中有70%的性别代词是男性的,而30%是女性的。这是因为用于此目的的文本所指的是男性而不是女性。为了防止翻译系统复制这些现有的偏见,必须从数据中删除特定的句子对,以使英语和法语双方出现男性和女性代词的比例分别为50%/ 50%。这将防止系统为男性代词分配更高的概率。