AI 中的因果推理是指系统理解和建模因果关系的能力,而不仅仅是识别数据中的相关性。与专注于根据模式预测结果的传统机器学习不同,因果推理旨在回答诸如 “如果我们干预改变 X 会发生什么?” 或 “为什么会发生 Y?” 等问题。这种方法帮助 AI 系统做出考虑潜在机制的决策,而不仅仅是基于观察到的关联。例如,使用因果推理的医疗 AI 可能确定某种药物是否 导致 患者康复,而不是仅仅注意到该药物与康复在统计上相关。
为了实现因果推理,开发者通常使用结构因果模型 (SCM) 或有向无环图 (DAG) 等工具来表示变量之间的关系。这些模型明确定义了变量如何相互影响,使系统能够模拟干预(例如,“如果我们强制所有患者服用这种药物会发生什么?”)或推断反事实(例如,“如果这位患者没有服用这种药物会康复吗?”)。例如,一个电商平台可以使用 DAG 来建模改变网站布局(原因)如何影响用户购买(结果),同时考虑季节性需求等混杂因素。do-calculus 或因果发现算法(例如 PC 算法)等框架有助于自动化此过程的部分,尽管仍然需要人类专业知识来验证假设。
因果推理在决策具有现实世界后果的场景中尤其有价值。在医疗保健领域,它可以帮助区分因果效应与虚假相关性,从而避免有害的干预。在自动驾驶汽车等自主系统中,它可以推理行动的结果(例如,“如果我现在刹车,后面的车会撞上来吗?”)。开发者可以利用 DoWhy 或 CausalNex 等库将因果推理集成到管道中。虽然不能取代传统机器学习,但因果方法解决了关键限制,例如在新环境中泛化能力差或无法处理未见的干预。例如,使用因果推断的推荐系统可以通过理解用户行为是如何 由何引起 的,而不仅仅是预测,从而更好地适应策略变化(例如新的定价规则)。