您现在的位置是:首页 >互联网 > 2020-10-28 11:12:33 来源:

人工智能的人员问题专业人士解决数据科学中的道德和偏见

导读 数据分析的黄金时代迎来了两项发展。一种是庞大的,不断扩展的可用数据量。另一个是先进的新型机器学习和人工智能技术。有人可能会认为这两

数据分析的黄金时代迎来了两项发展。一种是庞大的,不断扩展的可用数据量。另一个是先进的新型机器学习和人工智能技术。

有人可能会认为这两只狗可以自己比赛到终点。但是,当今的数据科学中还需要另一个要素。没有它,不正确的输入和输出以及普遍的偏见可能会破坏最佳的分析工作。

BrightHive Inc.联合创始人兼战略计划负责人Natalie Evans Harris(如图)说:“人才是未来数据科学面临的最大挑战 。” 分析软件的消费者可能会轻易忘记这些算法并非自己创造的;人们创造了它们。这些人头脑中的东西很可能会进入算法。任何可能信任他们做出决定的人都应该对此予以关注。

先进的新型AI和ML软件降低了企业,政府机构和其他机构的准入门槛。对于他们来说,将数据科学应用于特定的问题从来没有像现在这样容易。“但我们还需要认识到,无论人工智能如何获得出色的表现,仍然需要人类参与其中,因为算法的强大程度仅与开发它们的人一样强大,”埃文斯·哈里斯(Evans Harris)说。

我们如何确保我们开发强大的,相对公正的算法?根据埃文斯·哈里斯(Evans Harris)的说法,通过让具有不同经验和教育程度的各种人员来完成任务。

埃文斯·哈里斯(Evans Harris) 在斯坦福大学的斯坦福女性数据科学活动中与SiliconANGLE Media的移动直播工作室CUBE主持人丽莎·马丁(Lisa Martin)进行了交谈。他们讨论了数据科学的人员问题以及可以帮助限制算法偏差的行为。

本周,CUBE在其“每周启动”功能中聚焦了Natalie Evans Harris和BrightHive。

训练数据中的魔鬼

准确的数据分析(回答问题或预测结果的那种方法)绝非易事。算法训练的数据最终将通知算法。从大量可用数据中选择合适的数据进行分析可能是一个挑战。

IBM公司研究阿尔玛登研究中心副总裁兼实验室主任杰夫·韦尔斯(Jeff Welser)表示:“如果您有非常庞大的数据集,您甚至可能甚至没有意识到数据在性别或您正在分析的内容上会略有偏见。”圣何塞 在12月告诉SiliconANGLE。“这可能是您对这些特征的训练过度。”

说一种算法是为了预测普通人群的驾驶行为。如果酗酒者和带有假肢的人在数据集中被过多代表怎么办?根据该数据训练的算法可能没有最大的预测能力。人们需要问数据问题,以避免这种情况。根据埃文斯·哈里斯(Evans Harris)的说法,处理数据的任何人都必须学习这项技能。

这位企业家以前曾在国家安全局工作,以帮助建立其数据科学计划。在那里,她发现了熟练的问题提问对数据科学至关重要。它实际上已成为那里的数据科学家的官方课程。

埃文斯·哈里斯(Evans Harris)表示:“我们让他们每个人都上了一堂问问题的课,这与我们情报分析员上的课一样。” “因此,历史和外语专家需要学习如何提出数据问题的方式,我们也需要数据科学家也要学习。”

不同类型的人会问不同的数据问题。从许多不同的角度提出更多问题,可以得出有趣的见解,激发新的分析项目,并审查数据是否存在偏见。

无偏差AI是一种幻想吗?

根据Gartner Inc.研究副总裁Alexander Linden的说法,绝对无偏差的AI可能是一个幻想。事实上,Gartner预测,到2022年,由于数据,算法或技术的偏差,会有85%的AI项目交付错误的结果。负责管理他们的团队。

“今天,没有办法完全消除偏见,”林登说。“但是,我们必须尝试将其减少到最小。除了诸如多种数据集之类的技术解决方案外,确保与AI合作的团队的多样性并让团队成员互相评审工作也至关重要。这个简单的过程可以大大减少选择和确认偏差。”

其他专家也回应林登的观点。

人工智能初创公司顾问史蒂夫·阿迪尔( Steve Ardire)对IBM大数据和分析中心说: “大多数人认为算法是客观的-但在很大程度上,它们是嵌入在代码中的观点,其中还包含偏差 。” “我们必须在算法中开发有效的机制,以过滤偏见并将伦理学纳入AI中,并能够在各行之间阅读以接近常识推理。”

数据科学家希波克拉底誓言

良好的数据实践超越了精确的算法。关于数据分析和AI中的隐私和道德规范的问题越来越多。诸如欧盟《通用数据保护条例》之类的立法 正在迫使公司对客户的数据承担更大的责任。

BrightHive帮助组织建立所谓的数据信任。BrightHive数据信任允许组织网络安全,负责地和合乎道德地共享数据,进行协作并产生新见解。

BrightHive同时提供数据信任开发和管理。它使信任的个人网络可以就数据的正确使用进行沟通和协作。数据信任关系的所有成员都参与数据的管理和控制。一个学习社区有助于在成员组织之间发展“数据能力”。数据信任已嵌入了社区开发的数据使用道德原则。

埃文斯·哈里斯(Evans Harris)表示:“我们需要认识到隐私不仅仅是病毒防护,还需要在使用此数据的个人,社区和公司之间建立信任。” “答案是我们仍在寻找的答案。我认为其中很大一部分只是人力资本。”

BrightHive,彭博社(Bloomberg LP)和 民主数据 合作开展了一项名为“道德数据共享社区原则”的计划。它旨在为数据科学家开发“希波克拉底誓言”。