您现在的位置是:首页 >人工智能 > 2022-03-17 15:15:29 来源:

审计高风险人工智能的有意义的标准

导读 针对在招聘、大学招生、预测性警务、健康干预等方面使用的工具存在不公平和偏见的说法,明尼苏达大学最近制定了一套新的人工智能工具审计指

针对在招聘、大学招生、预测性警务、健康干预等方面使用的工具存在不公平和偏见的说法,明尼苏达大学最近制定了一套新的人工智能工具审计指南。

审计指南发表在AmericanPsychologist上,由明尼苏达大学心理学副教授RichardLanders和普渡大学TaraBehrend共同制定。他们应用一个世纪的研究和专业标准来衡量心理学和教育研究人员的个人特征,以确保人工智能的公平性。

研究人员首先通过三个主要关注点考虑公平和偏见的想法,从而制定了人工智能审计指南:

使用这些镜头,研究人员将心理审计作为一种标准化方法来评估人工智能系统的公平性和偏见,这些系统在招聘和大学录取等高风险应用领域对人类进行预测。

审计框架有十二个组成部分,分为三个类别,包括:

与AI的创建、处理和预测相关的组件

与AI的使用方式、其决策影响的对象以及原因相关的组件

与总体挑战相关的组成部分:使用人工智能的文化背景、对受其影响的人的尊重以及人工智能提供者用来支持其主张的研究的科学完整性

“人工智能的使用,尤其是在招聘方面,是一种已有数十年历史的做法,但人工智能技术的最新进展为人工智能开发人员创造了一种‘狂野西部’的感觉,”兰德斯说。“现在有大量的初创公司不熟悉现有的使用算法雇用人员的道德和法律标准,而且由于不了解既定做法,他们有时会伤害人们。我们开发了这个框架来帮助通知这些公司和相关监管机构。”

研究人员建议内部审计师在开发高风险预测性人工智能技术期间以及之后由独立的外部审计师遵循他们制定的标准。任何声称就应该如何对待人们提出有意义的建议的系统都应该在这个框架内进行评估。

“工业心理学家在评估高风险评估方面拥有独特的专业知识,”贝伦德说。“我们的目标是让基于人工智能的评估的开发人员和用户了解现有的公平和有效性要求,并指导未来制定保护工人和申请人的政策。”

人工智能模型发展如此迅速,很难跟上审计特定类型人工智能系统的最合适方式。研究人员希望为特定用例制定更精确的标准,与全球其他有兴趣将审计作为这些情况下的默认方法的组织合作,并努力在更广泛的范围内与人工智能一起创造更美好的未来。