17611538698
webmaster@21cto.com

Meta人工智能负责人:大语言模型永远无法达到人类智力水平

人工智能 0 586 2024-04-11 12:45:37

图片

导读:Meta负责人工智能的负责人对马斯克近日针对AGI的言论持不同的看法。

围绕通用人工智能的“炒作”正在进行中,不管是媒体还是机构,它是无法避免的。

几乎每天都会出现有关这一概念的新标题 ,该一概念设想以及计算机系统在各种认知或任务上的表现的确优于人类。

在上个月,三位科技业界中的名人发表了各自新对通用人工智能AGI的声明。

Nvidia 首席执行官黄仁勋表示 AGI 将在五年内到来;“AGI 之父”Ben Goertzel预测只有 3 年,AGI便会到来。而伊隆·马斯克 (Elon Musk)通常会对转折点做出最大胆的预测:2025 年底即可实现。

不过,并非所有人都如此乐观。一位著名的怀疑论者是 Meta 的首席人工智能科学家、著名的图灵奖获得者 Yann LeCun。

LeCun 通常被称为“AI 三教父”之一,他甚至认为“不存在 AGI 这样的东西”,因为“人类智能远非通用”。

这位法国人更喜欢规划一条通往“人类水平的人工智能”的道路。 

周二在伦敦——Meta 在美国以外的旗舰工程中心——举行的一次活动上,LeCun 表示,即便如此,这仍然是一个遥远的目的地。

他指出了四个认知挑战:推理、计划、持久记忆和理解物理世界。

“这些是人类智力的四个基本特征——就此而言,动物智力也是如此——当前的人工智能系统无法做到,”他说。

如果没有这些功能,人工智能应用程序仍然受到限制并且容易出错。自动驾驶汽车在公共道路上仍然不安全。家用机器人很难完成基本的家务活。我们的智能助手只能完成基本任务。

这些智力缺陷在大型语言模型(LLM)中尤为突出。在 LeCun 看来,它们受到对一种人类知识形式的依赖的严重限制:文本。

“我们很容易因为语言流利而误以为他们很聪明,但实际上,他们对现实的理解非常肤浅,”他说。

“它们很有用,这是毫无疑问的。但在通往人类水平智力的道路上,法学硕士基本上是一个出口,一个干扰,一个死胡同。”

为什么大语言模型并不像他们看起来那么聪明


Meta 的 LLaMA、 OpenAI 的GPT-3 和 Google 的 Bard等都接受了大量数据的训练。据 LeCun 称,人类需要大约 100,000 年才能阅读一位顶尖大模型所摄取的所有文本。


但是,这不是我们人类的主要学习方法。


我们通过与世界的互动消耗更多的信息。LeCun 估计,一个典型的四岁孩子看到的数据比世界上最大的语言模型要多 50 倍。


“大多数人类知识实际上不是语言,因此这些系统永远无法达到人类水平的智能——除非你改变架构,”LeCun 这样说道。


当然,这位 63 岁的老人有另一种架构风格,他称之为“目标驱动的人工智能”。


基于目标驱动的AI与信息的目标


目标驱动的人工智能系统是为了实现人类设定的特定目标而构建的。


他们不是靠纯文本长大的,而是通过传感器和视频数据训练来了解物理世界。


其结果是一个显示行动影响的“世界模型”。然后,所有潜在的更改都会更新到系统内存中。


例如,如果将椅子推到房间的左侧或右侧,会有什么区别?通过从经验中学习,最终状态开始变得可预测。因此,机器可以规划完成各种任务所需的步骤。


LeCun 对自己的架构回报充满信心。


“最终,机器一定会超越人类智能……不过这需要一段时间,它不会立即实现,指日可待。而且,肯定不会像我们的朋友伊隆所说的那样是明年。”


作者:校长

评论