AI 通过数据驱动学习、结构化知识表示和情境推理相结合的方式处理常识推理。与人类不同,AI 系统缺乏对世界的内在理解,因此它们依赖训练数据中的模式和显式规则来近似常识知识。例如,像 GPT-4 这样的大型语言模型 (LLM) 从海量文本语料库中学习词语和概念之间的关联,从而能够通过识别基于习得物理约束的荒谬性来回答诸如“鱼能骑自行车吗?”之类的问题。另一方面,基于规则的系统可能使用本体或知识图谱(例如 ConceptNet)来编码“水是湿的”或“鸟会飞”之类的关系。
一个关键挑战是,常识推理通常需要人类习以为常的隐性知识。例如,回答“如果玻璃杯掉落会碎吗?”涉及理解材料、重力和易碎性——这些概念是 AI 必须从数据中拼凑出来的。虽然 LLM 可以通过模仿文本中的模式生成看似合理的答案,但它们在极端情况下可能会失败。例如,如果 AI 的训练数据缺乏企鹅等不会飞的鸟类的示例,它可能会错误地认为所有鸟类都会飞。这凸显了统计关联与真实理解之间的差距。混合方法,例如将神经网络与符号推理相结合,旨在通过将预测建立在结构化知识上解决这个问题,但集成这些方法仍然是一个持续存在的技术难题。
当前的研究重点是提高数据质量和推理框架。正在探索的技术包括在特定数据集(例如 CommonsenseQA)上微调模型或使用强化学习来优先考虑逻辑一致性。对于开发者而言,像 OpenAI 的 API 或 Hugging Face 的 transformer 这样的工具允许使用预训练模型进行实验,但针对领域特定的常识任务定制它们通常需要额外的训练或基于规则的约束。例如,处理客户服务的聊天机器人可能需要关于营业时间的明确规则以及 LLM 生成的响应,以避免建议在营业时间之外进行操作。尽管进展稳定,但 AI 要实现类似人类的常识推理,很可能取决于多模态学习(结合文本、图像等)的进步以及更好的因果推理机制。