您现在的位置是:首页 >市场 > 2021-04-23 09:28:07 来源:

谷歌正在让人工智能开发人员更容易将用户数据保密

导读 谷歌已经宣布了一个新的模块,用于其机器学习框架TensorFlow,它允许开发人员只需几行额外代码即可改善其AI模型的隐私。TensorFlow是用于构

谷歌已经宣布了一个新的模块,用于其机器学习框架TensorFlow,它允许开发人员只需几行额外代码即可改善其AI模型的隐私。TensorFlow是用于构建机器学习应用程序的最流行的工具之一,它被世界各地的开发人员用于创建文本,音频和图像识别算法等程序。随着TensorFlow Privacy的引入,这些开发人员将能够使用称为“差异隐私”的统计技术来保护用户的数据。

谷歌正在让人工智能开发人员更容易将用户数据保密

谷歌产品经理Carey Radebaugh告诉The Verge,推出这款工具符合谷歌负责人工智能开发的原则。“如果我们没有将差异隐私纳入TensorFlow,那么我们就知道,对于Google内外的团队来说,使用它并不容易,”Radebaugh说。“因此,对我们来说,重要的是将其纳入TensorFlow,开源,并开始围绕它创建这个社区。”

差异隐私的机制有点复杂,但它本质上是一种数学方法,这意味着在用户数据上训练的AI模型不能编码个人可识别信息。这是保护在AI模型中创建所需个人信息的常用方法:Apple将其用于iOS 10中的自有AI服务,Google将其用于许多自己的AI功能,如Gmail的智能回复。

要了解这些服务对隐私构成的危害,请考虑智能回复如何依赖从超过10亿Gmail用户收集的数据来做出建议的回复。这些数据显然包括非常个人的信息(基本上是你曾经放在电子邮件中的任何信息),如果智能回复出现这种情况,例如,通过建议回复另一个用户所写的电子邮件,这将是灾难性的。

差异隐私以“数学确定性”消除了这种可能性,谷歌的研究科学家ÚlfarErlingsson说,他已经在数据隐私领域工作了20年。Erlingsson告诉The Verge,这是一种从数据集中删除可识别的异常值而不改变数据的聚合含义的技术。“你的结果独立于任何一个人的[数据],但这仍然是一个很好的结果。”

但是,使用差异隐私有一些缺点。“通过屏蔽异常值,它有时可以删除相关或有趣的数据,尤其是在各种数据集中,例如涉及语言的数据集,”Erlingsson说。“差异隐私字面意思是系统不可能了解在数据集中只发生过一次的任何事情,因此你就有这种紧张感。你需要获得更多某种类型的数据吗?数据集中的这些独特属性有多相关或有用?“

但谷歌希望通过发布TensorFlow Privacy,全球更多的AI开发人员将开始使用这种技术,这些问题可以得到改善。“有一些工作要做,以便更容易找出这种权衡,”拉德博说。

最终,谷歌表示,最好让更多的大脑参与进来,发布新的开源工具可以增加可用人才库。Erlingsson说,此外,只需使用“四到五行[代码]和一些超参数调整”就可以为AI模型添加差异隐私,这本身就是一大进步。“就像几个月前我们所处的世界一样,这是一个非常不同的世界,所以我们为此感到非常自豪。”