您现在的位置是:首页 >动态 > 2020-11-13 15:47:03 来源:

称为GPT3的人工智能可以像人类一样书写

导读 自从今年早些时候发布以来,基于AI的新语言生成软件GPT-3因其产生令人信服的人文写作能力而备受关注。甚至有人建议说,由埃隆·马斯克(Elon

自从今年早些时候发布以来,基于AI的新语言生成软件GPT-3因其产生令人信服的人文写作能力而备受关注。甚至有人建议说,由埃隆·马斯克(Elon Musk)的OpenAI创建的程序可能被认为或似乎表现出某种东西,例如人工智能(AGI),理解或执行人类所能完成的任务的能力。这种喘不过气来的掩盖揭示了人们在语言出现与思考能力之间自然而又异常的勾结。

语言和思想虽然显然不同,但却紧密相关。有些人倾向于认为语言是思想的最终标志。但是语言可以很容易地产生而无需生灵。它所要做的就是通过计算机程序(无论是否基于AI)来消化人类语言数据库。

根据可用于检查的文本样本相对较少,GPT-3能够产生出色的语法。由于拥有空前的庞大知识库,因此它可以产生与主题相关的,高度连贯的新陈述,因此它具有广泛的词汇量。但是,它根本无法推理或显示任何“思考”的迹象。

例如,GPT-3撰写的一篇文章预测,喝了一茶匙葡萄汁的蔓越莓汁后,您可能突然死亡。尽管系统可以访问网络上的葡萄汁可食用的信息,但这仍然可行。

另一段文章建议将桌子通过过小的门道,您应该将门切成两半。一个能够理解其所写内容或对世界情况有任何了解的系统,不会产生如此异常的问题“解决方案”。

如果目标是创建一个可以聊天的系统,那就足够公平了。GPT-3表明,人工智能肯定会带来比迄今为止更好的体验。它当然可以带来一个愉快的笑声。

但是,如果目标是让系统思考一些问题,那么我们距离目标还很遥远。这是因为AI(例如GPT-3)通过“消化”语言内容的庞大数据库来产生“新”的合成语言内容而起作用。

来源是语言;产品是语言。中间放着一个神秘的黑匣子,其容量比人脑小一千倍,而且在工作方式上不像它。

除非您学习思想本身,否则重建作为我们观察到的语言内容起源的思想是不可能完成的任务。正如哲学家约翰·塞尔(John Searle)所说,只有“具有与大脑相同的内部因果力的机器”才能思考。

对于认知神经科学的所有进步,我们对人类思维的了解很少。那么我们如何希望将其编程到机器中呢?

什么能够吸引我的是,人去暗示一种推理是AI像GTP-3应该是什么能的麻烦与参与。这确实很奇怪,并且在某些方面很有趣-如果不担心的话。

为什么一个计算机程序,基于AI或没有,旨在消化数百个文字的千兆字节的许多不同的主题,了解有关生物学或社会推理什么?它没有这个世界的实际经验。它不能具有任何类似于人的内部表示形式。

看来我们许多人成为心理语言因果谬误的受害者。据说没有火就没有烟,没有头脑就没有语言。但是GPT-3是一种语言冒烟的机器,完全不具备任何实际的人类特征或心理。这只是一种算法,没有理由期望它能够提供任何类型的推理。因为它不能。