您现在的位置是:首页 >科技 > 2021-04-06 18:01:34 来源:

人工智能的真正危险是人类的偏见而不是邪恶的机器人

导读 Richard Socher到处走走。他是MetaMind的创始人,MetaMind是一家人工智能(AI)创业公司,在2016年被Salesforce收购之前,他从Khosla Ventu

Richard Socher到处走走。他是MetaMind的创始人,MetaMind是一家人工智能(AI)创业公司,在2016年被Salesforce收购之前,他从Khosla Ventures和其他公司获得了超过800万美元的风险投资支持,之前他曾担任斯坦福大学计算机科学系的兼职教授。他还获得了博士学位。(他在莱比锡大学获得了学士学位,在萨尔大学获得了硕士学位。)2007年,Socher成为了在语义机器人视觉挑战中获得第一名的团队的一员。他在组装ImageNet方面发挥了重要作用,ImageNet是一个公开可用的注释图像数据库,用于测试,训练和验证计算机视觉模型。

人工智能的真正危险是人类的偏见而不是邪恶的机器人

Socher--现在是Saleforce的首席数据科学家 - 长期以来一直被自然语言处理领域所吸引,这是计算机科学的一个子领域,涉及计算机和人类语言之间的相互作用。他的论文表明,深度学习 - 分层数学函数松散地模拟人类大脑中的神经元 - 可以同时解决几种不同的自然语言处理任务,从而避免了开发多个模型的需要。2014年,MetaMind使用一些相同的理论原理,他和一个工程师团队制作了一个在ImageNet上实现最先进精度的模型。

毫无疑问,在2017年,世界经济论坛称他为“人工智能和深度学习空间的神童之一,其突破性技术正在改变自然语言处理和计算机视觉。”

在Salesforce,Socher管理着一个研究人员团队,他们积极发布有关问答,计算机视觉,图像字幕和其他核心人工智能领域的论文,并且每年一次与斯坦福大学的研究生级自然语言处理和深度学习课程合作。在上周于蒙特利尔举行的NeurIPS 2018会议上,他慷慨地自愿与VentureBeat就当前存在的人工智能系统,Salesforce在研究界的角色以及人工智能方面的进展(或缺乏)进行对话。即人类AI。

这是我们采访的编辑记录。

VentureBeat:对Salesforce来说,这是忙碌的一年。我看到的爱因斯坦正在为今年早些时候的十亿次预测提供40亿次预测,而且它正慢慢成为你投资组合中几乎所有产品的一部分。就在不久之前,你宣布了爱因斯坦语音平台,并为爱因斯坦机器人提供了一般商用机器人。所以也许我们可以从那里开始。

会话系统正日益成为消费者生活的一部分。显然,Salesforce将其视为您业务中非常重要的一部分。那么未来会是什么样子?

Richard Socher: 我认为,对于我们来说,成为一个瑞士人很重要,如果你愿意的话,就很多人工智能的努力而言,因为我们的客户在很多不同的地方。在Salesforce的,我们认为,不仅是我们的客户的需求,但对 他们的客户在B2C容量需求。这就是为什么我们尝试支持所有这些不同的框架和平台 - 例如Alexa和Google Home。

同时,我们希望实现许多针对企业的要求,因此在我们拥有大量实力的领域构建自己的[解决方案]也是有意义的。例如,服务是我们在企业界非常熟悉的东西。我们试图让所有客户 - 超过150,000家公司 - 从AI中受益,就像这些拥有数十亿美元研发预算的大公司从中受益一样。这就是为什么我对我们拥有的这种平台思维感到兴奋。我们真的想让这些技术民主化。

事实证明,大公司想要一项服务,并且他们想要支付SLA并获得服务水平协议,正常运行时间保证,支持以及所有这些服务。只是在某个地方放置一些开源代码并不是那么有用。为了让许多不同规模的公司实现AI的民主化,您必须将其作为一种服务提供。当然,我们首先从我们认为最有用的软件包应用开始,因此我们的客户不必乱搞任何东西。但我们也希望管理员能够轻松创建自己的AI功能。

VentureBeat:您刚才提到了开源技术所涉及的一些挑战。合规是其中之一吗?

Socher:你提到这个很有意思。我们的银行客户看到了我们的爱因斯坦语音系统的第一个版本,该系统使用了消费者API,其中一些人说由于[API]他们无法使用它。

我们使用的较大语音系统中的一个模型是一种语言模型,它试图预测句子中的下一个单词,以帮助自动完成事物。现在,如果您从客户那里获取数据并且他们说“X公司正在收购Y公司”,那么这将成为培训数据的一部分。麻烦的是,它是非常敏感的信息,如果它通过自动更正无意中以某种方式显示给用户,那显然是一件坏事。

我所说的是,我可以看到为什么银行和其他企业喜欢使用私有数据的保险不希望使用消费者API,因为他们的数据成为大型池的一部分。每家公司都有自己的术语和私人数据,对他们来说,让他们感觉自己能够控制他们想要在语音识别系统中使用的词汇量非常重要。

VentureBeat:不要过于依赖他们的合规性,我并不是说建议有一个简单的解决方案,但你是否一直在关注加密方面的发展,比如英特尔的HE-Transformer?我在谈论训练加密数据的AI系统。你认为这可能是一个值得进一步调查的领域吗?

Socher:我其实很喜欢。这很有趣 - 这里有两个相互竞争的想法。一方面,你可能会说AI已经足够困难了。为什么我们应该通过加密数据使其变得更难?毕竟,大脑首先不加密,然后尝试访问它。

但你也可以说我们现在需要隐私。信任是Salesforce的头号价值。我们希望使这些系统更好,并且可能通过加密数据使它们稍微恶化。但是,你可以做更多的数据共享,结果可能产生一个最终做得更好的系统。