人工智能开发中开源的未来将由协作创新和扩展复杂系统挑战之间的平衡来定义。开源框架和模型仍将是推进人工智能研究和普及尖端工具的关键,但它们也将面临来自专有平台的压力以及训练最先进模型所需的资源需求。优先考虑模块化、互操作性和高效资源利用的项目可能会在这一领域成熟时蓬勃发展。
开源生态系统将继续支持快速实验和利基应用。例如,像 PyTorch 这样的库和 Hugging Face 的 Transformers 已经成为基础,因为它们让开发人员可以在预训练模型的基础上构建,而无需重新发明基础设施。Meta 以半许可许可证发布 Llama 2 表明了公司如何在保留商业用途控制权的同时为开源做出贡献。像 Mistral-7B 这样由社区驱动的努力表明,较小的、优化的模型可以在特定任务中与较大的专有模型相媲美,从而降低开发人员的计算成本。然而,训练前沿模型(如 GPT-4)不断增长的计算需求造成了一个差距,如果没有机构的支持,开源项目可能难以弥合。
下一个阶段可能会看到开源专注于补充而不是与封闭系统竞争的工具。像用于模型交换的 ONNX、用于管道管理的 MLflow 或用于编译器优化的 OpenXLA 等项目可以帮助开发人员集成开放和专有组件。治理也将变得至关重要——像 Linux 基金会的 AI & Data Foundation 这样的倡议正在建立道德使用和可重复性的标准。随着监管审查的加强,记录数据来源、模型偏差和安全措施的开源社区将为透明度设定基准。对于开发人员来说,这意味着更多机会为专用工具(例如,微调框架或隐私保护技术)做出贡献,同时依赖于开放和封闭技术共存的混合生态系统。