增强现实 (AR) 中的延迟是指用户操作和系统视觉或交互响应之间的延迟。 这至关重要,因为即使是很小的延迟也会导致视觉错位、晕动病或脱节的用户体验。 延迟的主要来源包括传感器数据处理(例如,摄像头或 IMU 输入)、渲染管道(生成图形)和跟踪算法(根据运动更新虚拟内容)。 例如,如果头显处理头部旋转数据的时间过长,虚拟对象将显得滞后于现实世界,从而破坏沉浸感。
为了最大限度地减少延迟,开发人员可以优化 AR 管道的每个阶段。 对于跟踪,结合传感器融合技术(例如,将基于摄像头的视觉里程计与惯性测量融合)可减少对任何单个传感器的依赖并提高更新速度。 预测算法还可以根据当前的运动趋势估计未来的用户运动(例如,头部位置),从而补偿处理延迟。 在渲染中,注视点渲染等技术(优先考虑用户中心视觉中的细节)减少了 GPU 工作负载,而异步时间扭曲使用最新的跟踪数据在最后一刻调整最终图像。 硬件加速,例如专用视觉处理器或具有低延迟 API 的 GPU,进一步加快了这些任务。
另一种方法是简化数据流。 例如,减少传感器输入和显示输出之间的处理步骤可以减少延迟。 边缘计算或设备上处理避免了云依赖系统中与网络相关的延迟。 此外,使用轻量级机器学习模型进行对象检测或 SLAM(同步定位与地图构建)可确保实时性能。 开发人员应该分析他们的应用程序以识别瓶颈——ARCore 的性能模式或 Unity 的帧调试器等工具可以帮助查明问题。 通过系统地解决每个组件的延迟,AR 体验可以实现无缝交互所需的低于 20 毫秒的响应时间。