自动驾驶汽车通过传感器交叉验证、异常检测和强大的机器学习模型来识别和缓解视觉传感器上的深度伪造攻击。这些系统依靠摄像头来解释道路标志、行人和障碍物,但深度伪造 - 人工智能生成的操纵现实的图像或视频 - 可能会欺骗这些传感器。为了应对这种情况,自动驾驶汽车使用多层验证流程。例如,他们将摄像头数据与来自 LiDAR、雷达和超声波传感器的输入进行交叉检查。如果摄像头检测到停车标志,而其他传感器没有确认,系统会将其标记为可疑。这种冗余确保不会盲目信任任何单个传感器的输入。
缓解措施包括隔离受损数据并切换到可信来源。当检测到潜在的深度伪造时,汽车的软件可能会暂时忽略受影响的摄像头馈送,并依赖替代传感器或预先绘制的环境数据。机器学习模型也经过训练,可以识别深度伪造的典型不一致之处,例如不自然的照明、模糊的边缘或不合逻辑的物体放置。例如,深度伪造攻击可能会将伪造的行人投射到摄像头馈送上,但 LiDAR 将无法检测到相应的物理物体,从而触发对摄像头数据的拒绝。此外,一些系统对关键道路标志使用加密签名或水印,使摄像头可以通过嵌入的数字标记来验证真实性。
具体技术包括时间一致性检查,系统在其中分析连续帧中是否存在违反物理规律的突变。在半空中突然出现的深度伪造生成的障碍物会违反运动模式,从而促使系统忽略它。开发人员还采用对抗性训练,在训练期间将神经网络暴露于深度伪造示例,以提高弹性。例如,特斯拉的 Autopilot 使用神经网络和传感器融合相结合来交叉验证检测结果,而 Waymo 的系统则优先考虑 LiDAR 和雷达,以便在模糊场景中进行物体验证。这些分层防御措施确保即使一个传感器受到攻击,其他传感器也能提供可靠的后备方案,从而维持车辆安全关键的决策制定。