了解基础模型如何通过可扩展的架构、广泛的预训练和对各种应用的可适应性来彻底改变 AI。
基础模型是一种大规模的机器学习 (ML)模型,它在大量广泛的、未标记的数据上进行训练,可以适应各种下游任务。由斯坦福以人为本人工智能研究院创造的核心概念是“涌现属性”,即模型从训练数据中发展出对模式、语法和语义的惊人通用理解。这种通用性使其可以作为创建更专业模型的强大起点或“基础”,这一过程称为微调。
基础模型的决定性特征是它们的适应性,这源于 迁移学习 范例。开发人员无需为每个问题从头开始训练新模型,而是可以采用预训练的基础模型,并使用小得多的、特定于任务的数据集对其进行调整。这大大减少了构建高性能 AI 系统 所需的数据、计算和时间。
实际应用展示了其多功能性:
区分基础模型和相关概念非常重要:
预训练基础模型是一项资源密集型工作,通常需要数千个 GPU 和大量的工程投入,通常由 Google AI 和 DeepMind 等大型组织进行。但是,一旦完成训练,这些模型将开放给更广泛的用户使用。
诸如 Ultralytics HUB 这样的平台提供的工具通过简化 训练自定义模型、管理 数据集 和部署解决方案的工作流程来帮助用户适应这些基本功能,通常需要仔细的 超参数调整。
基础模型正在通过普及强大功能的使用来改变 AI 格局。它们的兴起也引发了关于 AI 伦理、数据集偏差 和 计算鸿沟 的重要讨论。未来指向更强大、更高效和 多模态模型,这些模型可以同时理解和处理来自文本、图像和声音的信息,从而推动下一波 AI 用例。