人工智能可以发展出多种形式的推理能力,但要实现通用推理——即像人类一样解决跨领域多样化、未知问题的能力——仍然是一个尚未解决的挑战。当前的 AI 系统,包括大型语言模型 (LLM),在特定任务中展现出狭义的推理能力,例如解决数学问题或基于训练数据回答问题。例如,GPT-4 可以通过识别训练数据中的模式生成代数问题的分步解决方案。然而,这并非真正的通用推理,因为模型缺乏对概念的内在理解;它依赖于统计关联而非抽象原理。这些系统难以应对需要将一个领域的知识应用于另一个领域的全新场景,例如将物理原理应用于解决它们未明确训练过的现实工程问题。
这些限制源于 AI 系统的构建方式。大多数系统依赖于数据中的模式识别而非因果推理。例如,大型语言模型可以通过模仿示例正确回答逻辑谜题,但如果谜题结构稍有改变,它就可能失败。研究人员正在探索神经符号系统等架构来解决这个问题,这些系统将神经网络与符号逻辑规则相结合。神经符号模型可以使用神经网络解析问题,并使用符号引擎应用逻辑规则,从而实现更结构化的推理。然而,这些混合方法仍处于实验阶段,需要精确的特定领域设置。另一个挑战是基础认知:人类通过感官体验和情境知识进行推理,而 AI 缺乏与物理世界的直接互动。例如,一个在模拟环境中训练的机器人可能因为训练中未见的细微纹理差异,而难以调整其对真实物体的抓取力道。
迈向通用推理的进展可能涉及逐步改进而非突然突破。诸如思维链提示(即训练模型输出中间推理步骤)等技术已显示出提高透明度和准确性的潜力。例如,谷歌的 Minerva 模型使用这种方法将复杂数学问题分解为更小的步骤来解决。然而,这些方法仍然依赖于庞大的数据集,并且无法泛化到训练范围之外。未来的进步可能需要新的范式,例如从有限数据中学习因果关系的系统,或能够动态重组知识的架构。尽管 AI 近期不会复制类人推理能力,但有针对性的增强可以在科学研究或软件开发等结构化领域扩展其问题解决范围,因为这些领域提供了更清晰的规则供系统遵循。