您现在的位置是:首页 >互联网 > 2020-10-28 14:00:24 来源:

与迎接AI道德责任时代的社会科学家见面

导读 推动数字化转型时代的呼声是以快速进步的名义快速行动并打破事物。但是破坏事物会带来后果,并且往往会超出范围,尤其是在自动化机器快速移

推动数字化转型时代的呼声是以快速进步的名义“快速行动并打破事物”。但是破坏事物会带来后果,并且往往会超出范围,尤其是在自动化机器快速移动的情况下。

人工智能已经成为超越人类工作能力的技术未来必不可少的东西。但是,尽管假设非人类工人可以提供更高水平的公正性,但新兴的现实是,由技术行业开发的具有已知多样性问题的AI工具可能充满有害偏见。

随着行业开始看到其机器学习试验期的结果越来越好,人工智能责任倡导者呼吁在创新中优先考虑伦理学。

“当我们考虑道德和人工智能时,这不仅是在改进技术上,还在于 埃森哲应用智能全球负责人AI负责人Rumman Chowdhury博士(如图)说。

在最近的旧金山埃森哲技术愿景2019活动中,乔杜里与SiliconANGLE Media的移动直播工作室CUBE的主持人杰夫·弗里克(Jeff Frick)进行了交谈。

本周,CUBE在Rumman Chowdhury博士的“科技女性”专栏中聚焦。

编纂不公平

乔杜里(Chowdhury)通过社会科学来从事人工智能工作,这一背景导致了人类与技术相交的精神。数据科学家主要关注的是为AI提供信息的人性,这是在不断创新的目标推动下的行业中罕见的观点。

乔杜里说:“当我想到人工智能或数据科学时,我实际上将其视为关于人们的信息,旨在理解人类行为的趋势。”

随着AI利用越来越多的敏感数据来为企业和消费者每天使用的技术提供支持,围绕其潜在内在偏见的讨论日益受到关注。面部识别系统无法识别肤色较深的人。由于系统性种族不平等而导致的预测性警务技术通过对“未来”的算法预测来加强量刑判决。全世界都认为微软是阴谋论的种族主义者之后,微软被迫关闭了它的AI聊天机器人。

尽管并非所有机器学习工具的智能都被互联网巨魔所众包,但潜在的隐性偏见却很明显。人们担心由一个人口统计学差异很大的行业开发的产品和服务是有效的,而且内置的偏见也从硅谷外部渗入。

纽约州众议员亚历山大·奥卡西奥·科尔特斯(Alexandria Ocasio-Cortez)最近呼吁人们注意AI可能造成的意外歧视。她说:“算法仍然是人类制定的,那些算法仍然与人类的基本假设挂钩。” “如果不纠正偏差,那么您就是在自动实现偏差。” 尽管她的评论被许多人嘲笑为妄想症,但AI偏见的例子已经在日用技术中激增。

据乔杜里(Chowdhury)所说,真正负责任的AI不仅将解决其技术中内置的问题,还将解决这些监督背后的社会问题。 “您可以拥有出色的数据和完美的模型,但我们来自不完善的世界。世界不是一个公平的地方。我们不想将其编入我们的系统和流程中。”她说。

刹车有助于汽车更快行驶

随着机器学习机会随着越来越复杂的数据涌入而扩大,可能限制AI影响的法规在企业中变得更难卖。单一声音不会产生影响的感觉很容易使AI技术可能在没有道德考虑的情况下运作,从而使内置偏见成倍增加。

“通常,我们感觉就像机器中的齿轮。Chowdhury说:“通常没有足够的责任感,因为每个人都认为他们为这台更大的机器做出了贡献:'无论如何,该系统会压垮我。”

乔杜里(Chowdhury)将此概念称为“道德外包”,这种现象使社区中的每个人都能将责任推卸到整体上。但是,与AI不同,人类不仅仅是机器中的齿轮,而且具有独立思考和行动的能力。数据科学家认为,人工智能的责任不仅应该承担整个行业的责任,还应该承担每个参与者的责任。

乔杜里说:“我们需要使人们有能力说出自己的想法并有道德上的良心。”

在一个痴迷于创新的市场中,将社会责任纳入发展似乎听起来是对某些人的限制。乔杜里说,尽管有意识的人工智能在伦理上的重要性可以说是足够合理的,但监管对商业创新和整个社区都有好处。

她说:“刹车有助于使汽车行驶得更快。” “如果我们有合适的护栏来告诉我们是否会失控,我们冒险会更自在。听起来很矛盾,但是如果我知道我的安全空间在哪里,我就更有能力做出真正的创新。”

解决大规模偏差

在AI的当前规模上,似乎对偏见的广泛后果的警告并没有产生足够的影响来激发人们转向AI所需的社会意识。Chowdhury指出,负责任的AI战略始于一种基本符合道德的商业文化和更全面的见解,这些见解可以识别技术的潜在意外后果。

扩大公司视野的有效方法是包含多种跨学科的声音。她说:“技术人员经常会说,这是正确的,'我怎么应该知道X会发生什么?'。” “这是特定于邻里,国家或社会经济团体的东西。您应该做的是引入当地社区ACLU和某种区域专家。”

在埃森哲公司,乔杜里及其团队已将AI公平工具的使用作为公司机器学习透明性计划的一部分。该工具通过识别敏感变量(例如年龄,性别和种族),并在指导AI技术的统计模型中对其进行调整,从而解决了可量化的AI偏差问题。

偏差是一个敏感问题,公平工具负责客观地引起人们对潜在不平等现象的关注。乔杜里说:“我们的思考方式不是作为决策者,而是决策者……解释潜在的缺陷和问题,然后采取集体行动。” “它有助于平滑对话,并指出算法中可能存在不公平之处。”

事实证明,具有道德包容性的企业拥有更成功的团队,他们可以创造更好的产品,并在整个市场上排名更高。尽管AI可能使组织有权追求无限的创新,但要使企业和社区在AI方面取得成功,就需要长期的战略,该战略必须建立在社会责任之上。

她说:“如果我们建立的东西从根本上讲是不道德的,我们就必须停止并说:'只是因为我们不能意味着我们应该这样做。'