目前的大型语言模型(LLM),例如 GPT-4 或 Llama,并非通用人工智能(AGI)的示例。它们擅长根据训练数据中的模式处理和生成文本,但缺乏通用人工智能所需的广泛推理能力、适应性和上下文理解能力。例如,LLM 可以通过模仿其所见示例来写诗或调试代码,但若没有明确的再训练或人类指导,它无法自主学习一项全新的技能,比如控制机械臂。它们的能力仅限于其训练数据和经过微调的特定任务,这使得它们属于狭义人工智能系统。
阻碍 LLM 实现通用人工智能的主要限制在于它们依赖于统计相关性而非真正的理解。尽管它们可以生成听起来合理的答案,但它们并不像人类那样“理解”概念。例如,LLM 可能通过回忆相似示例来解决数学问题,但无法利用抽象推理推导出新的解决方案。此外,LLM 缺乏持久记忆或设定长期目标的能力。它们独立处理每个输入,这限制了它们在长时间交互中保持上下文或动态适应变化环境的能力。即使是高级模型,在需要物理世界直觉的任务上(比如预测积木堆如何倒下)也表现不佳,因为它们缺乏具身经验。
实现通用人工智能需要将 LLM 与处理感官输入、物理交互和目标驱动推理的其他系统集成。例如,将语言模型与机器人平台结合,可以使系统同时从文本和现实世界交互中学习。然而,这种集成并非易事。目前的研究重点是改进推理能力(例如,思维链提示)或将 LLM 连接到计算器或 API 等工具,但这都是渐进式的步骤。开发者应将 LLM 视为特定应用的强大工具,例如自动化文档或协助编写代码,而非通往通用人工智能的途径。除非系统能够自主学习、适应并在没有人工干预的情况下跨领域泛化,否则通用人工智能仍然是一个理论目标。