边缘 AI 将一些计算任务从集中式云服务器转移到本地设备,从而改变了开发人员设计和部署 AI 系统的方式。通过直接在传感器、摄像头或智能手机等边缘设备上处理数据,边缘 AI 减少了对云基础设施的依赖,从而进行实时推理任务。这并没有消除对云 AI 的需求,而是重新分配了工作负载。例如,一家使用边缘 AI 的工厂可以本地分析传感器数据以立即检测设备故障,同时仍然依赖云来训练更大的模型或聚合来自多个站点的数据。这种转变使开发人员可以优先考虑边缘的低延迟任务,并将云用于繁重的处理或存储。
云提供商正在通过将边缘功能集成到他们的平台中来适应,从而创建混合工作流程。 诸如 AWS SageMaker Edge Manager 或 Azure IoT Edge 之类的服务使开发人员可以在云中训练模型,针对边缘部署对其进行优化,以及管理跨设备的更新。 这种方法保持了云作为模型管理和数据存储的集中式枢纽的作用,同时卸载了时间敏感型任务。 例如,视频分析应用程序可以使用边缘 AI 来过滤摄像头上无关的镜头,从而减少发送到云端进行更深入分析的数据量。 现在,开发人员可以使用工具根据延迟、成本或隐私需求来划分工作负载,从而使云边缘协作成为 AI 架构的标准部分。
边缘 AI 的增长影响了云经济和用例。 通过降低推理的数据传输成本和云处理费用,边缘计算可以降低大规模部署的运营费用。 但是,在需要大量数据聚合、重新训练模型或提供复杂预测的情况下,云提供商仍然占主导地位。 例如,一家零售连锁店可能会使用边缘 AI 通过商店摄像头实时跟踪库存,但依靠云来分析所有地点的购买趋势。 开发人员现在必须评估每一层的位置:边缘用于速度和隐私,云用于可伸缩性和灵活性。 这种平衡确保了两个市场共存,边缘补充(而不是取代)云 AI。