您现在的位置是:首页 >互联网 > 2020-10-27 11:14:20 来源:

提升AI父母会为现代企业打造更好的AI系统吗

导读 部分事实,部分科幻小说,无赖人工智能的概念正受到广泛关注 -这是有充分理由的。作为AI的创造者,人类对有情机器负有责任,其方式类似于

部分事实,部分科幻小说,无赖人工智能的概念正受到广泛关注 -这是有充分理由的。

作为AI的创造者,人类对有情机器负有责任,其方式类似于父母的职责。但是随着AI逐渐成熟成可以产生和训练自己的程序,人们对事物的解释变得越来越少,机器变得更加自治。人工智能的复杂性导致人们呼吁在该领域中增加背景和软技能的多样性,以期通过更周到的培训来遏制人工智能的偏见和全面脱轨。

所有这些都提出了一个有趣的问题:父母是否具有独特的能力来训练AI,并且育儿方法能否更好地训练AI来抽象和适应当今快速发展的商业世界?

近期的发展推动了AI的发展,使AI对格式塔测试, 逼真的文本生成器 和准确的医学诊断的认知度得以提高 。对于每种类型的AI,都有一名幕后工程师对软件进行编程,以识别海量数据集中的模式以实现特定目标。

为此,强化学习已经采用了类似父母的方法,该方法指导AI的最初发展,以便它可以快速从错误中学习并进行相应的自我纠正。同时, 用于人工智能的神经网络技术的发展使机器具有了更像人类的素质,这引发了一个问题:人工智能是否能够很快抽象地思考,从而将利基用例推广到更广泛的业务应用之外?

为了更好地了解在令人眼花of乱的AI世界中父母式培训方法,我最近与SiliconANGLE的姊妹市场研究公司Wikibon的数据科学首席分析师James Kobielus进行了交谈。十多年来,Kobielus一直在密切分析AI的深度,从计算基础设施到道德框架。根据Kobielus的说法,将需要一个技能集和AI训练方法的村庄,涵盖受监督和不受监督的模型,以为现代企业的成年任务做好准备。 为了清楚起见,以下简述如下。

问:父母的经历如何对有助于AI培训的软技能做出贡献?

答:从章鱼到树木,任何有情的生物都会进行某种程度的学习。他们必须适应不同的环境。我们已经学习了,这就是为什么我们仍然在这里。那么一个人如何学习?有自然,就有养育。

让我们谈谈自然。作为人类的发明,人工智能已经过改进,可以适应各种任务。当我们谈论在AI环境中学习时,它能够使其行为适应环境的变化,应对其在该环境中面临的挑战,并在达到其成果方面取得一定程度的成功。在过去的十年中,人工智能几乎完全从基于规则的系统转变为我们现在称为机器学习的系统。

在育儿方面,父母在某种程度上不需要给孩子很多东西。婴儿出生时就具有内置的认知能力。从某种意义上说,学习不是训练,要确保无监督的学习就必须要做一些特定的任务。但是对于AI而言,监督学习正在建立一个模型,以查看其如何处理数据,从而基于对历史数据的训练方式来预测接下来会看到什么。示例包括年龄,种族,性别或面部识别的预测。

在育儿和人工智能的背景下,合理地构建预测模型是一项软技能,因为您必须了解导致问题的原因。对于强化学习,您必须了解任务,并希望确保不会伤害到人员并且不会损坏物体。在强化学习中必须进行广泛的模拟,例如使用自动驾驶汽车。育儿是一样的。有很多很多的规则。父母会根据环境风险做出长远的决定。孩子们不会自己学习所有东西,但是他们有天生的限制因素。

问:强化学习如何帮助遏制AI模型中的偏见?

答:关于AI的偏见,它被定义为您要避免的一组结果。每个AI都会对其所训练的任务有偏见。当我们广义地谈论完美的AI模型时,它取决于AI构建者了解要完成的任务的软技能。例如,在构建用于房屋贷款批准的AI时,有很多变量,例如受保护的属性。尽管贷款中可能存在有效的预测变量,但如果将它们纳入AI模型,则可以有效地不公平地偏向没有富裕父母或私立学校等历史优势的整个人群。

AI如何遏制偏见:关注数据。它反映了整个社会的偏见,因此可以设计AI以防止不必要的偏见。必须测试AI模型的潜在偏差,这可以由人工完成以评估AI所识别的那些异常值。

为了加强学习以避免偏见,实际上我还没有遇到过,所以让我们来探索一下。如果将AI编程为避免可能与不公平歧视相关的步骤,则可以使用强化学习来训练AI模型采取步骤来避免明显的偏见。

问:机器能比幼儿做得更好吗?幼儿能比机器做得更好吗?

答:我们只能说人类,因为幼儿是人类。好吧,人类没有被编程-我们不是机器。从来没有人写过代码直接插入我的大脑。我取而代之的是评估信息。我们就是这样学习的。

人工智能必须实现人类的逻辑,人类可以使用硬逻辑和软逻辑进行编程。而且逻辑正变得越来越统计。这就是AI革命的全部内容。机器以24/7的速度运行,请勿入睡或烧坏。机器可以处理的数据比人类多得多,并且可以保留更新的精确数据日志,而我几乎不记得我两秒钟前所说的话。

对于AI来说,令人惊奇的是芯片组。该行业是往前朝向克AI-优化的芯片组,图形处理单元和张量的核心处理。驱动各种机器的逻辑,尤其是诸如智能手机和坐在办公桌上的Alexa之类的边缘设备,能够从其环境中学习,并且具有与人类互动的惊人多功能性。

但是人类可以比机器做得更好的是类比。我们可以将以前看到的内容与现在看到的内容进行比较。类比是人类智能的基础,现在正在对AI进行编程,以在具有统计表示形式的监督学习下进行类比。

您甚至可以将AI视为对人类统计分析的改进。它需要我们所有的感官(视觉,听觉等等)来建立和完善统计分析。机器可以快速地处理人类可能看不见的大量数据。我们有直觉和天生的技能。机器与我们共生,将我们自己的直觉与数据结合在一起。

问:您看到或期待哪些进步可以帮助AI模型发展出更抽象的思维,以在不同的用例中概括获得的知识?

答:没有一般的AI可以将一项任务变成另一项任务。当人们以笼统的方式谈论AI时,他们倾向于掩盖AI被要求完成的任务。人工智能的存在是为了寻找数据中的相关性,无论它们是因果关系还是统计上的。大多数AI旨在执行分类和识别任务,例如语音识别或异常检测。当您查看AI的广泛任务时,我在这些示例中描述的大部分内容都是通过有监督的学习完成的,这使损失函数(即所提供的数据与预测下一件事的统计函数之间的差异)最小化。

当您谈论强化学习时,它是另一种野兽。您编写一个统计模型,通过反复试验得出结论。AI模型能够根据算法看到的下一个数据集,不断调整基础算法,以识别特定动作是否使AI更加接近其累积奖励功能-最终目标。

机器人技术是强化学习的经典核心,您可以在其中尝试某些空间或环境中的所有可能路径或动作。例如,机器人走过并捡起一块并将其放在架子上。如果机器人执行的99%的动作没有将其推进到目标,则AI将重新设计其算法以删除那些错误的路径。在养育子女中,试错是我们所有人固有的。如果您跌落10英尺高的壁架,将会伤害自己,并在将来避免这种后果。

问:转学在哪里适合?

答:现在有转移学习,这是指越来越多的技术可以吸收以前的AI中积累的统计知识-例如,用于识别人类的计算机视觉模型可以快速,准确地应用于识别其他物体的新任务灵长类动物,甚至改编该模型以识别个别的猫和狗。这种方法能够重新调整各种模型的用途,并具有相邻的用例。

另一个例子是自然语言处理。它可以进行基于英语自然语言AI的情感分析,并将其应用于其他英语方言。这涉及对神经网络结构进行统计分析,对原始模型使用的预测变量进行特征集分析,然后将其应用于相似但不完全相同的场景。

转移学习在游戏中得到了广泛的应用,使游戏之间可以相互学习,从而可以根据人们玩一种游戏的方式,将为该游戏构建的数据和AI重新用于另一种游戏,从而在一定程度上自动学习,玩另一种效率很高的游戏。我们还看到了机器人技术中的转移学习 -机器人可以学习在一个环境中行走,并且可以将知识转移到机器人中以学习在类似环境中爬行。

问:是否有商业动机来推广AI系统,还是为特定任务训练特定AI更具成本效益?

答:为特定任务训练AI更具成本效益。您可以对AI进行现有投资,而无需进行过多的返工,使其适合于做您可能会发现更有用的其他事情。如果成本不太高,那么只有激励。在现实世界中,并没有太多琐碎的一般情报工作。AGI蓬勃发展的地方是科幻小说,而AGI距离黄金时段还很遥远。AGI的未来性很强,在好莱坞比在现实世界中模拟的东西还要多。