探索生成式AI的基础知识。了解它如何创建合成数据、如何与Ultralytics YOLO26集成,以及如何推动计算机视觉领域的创新。
生成式AI是指 人工智能 (AI) 的一个子集,专注于响应用户提示创建新内容,例如文本、图像、音频、视频和计算机代码。与主要设计用于分析或 classify 现有数据的传统AI系统不同,生成模型使用 深度学习 (DL) 算法来学习海量数据集的底层模式、结构和概率分布。一旦训练完成,这些系统就能生成新颖的输出,这些输出与训练数据具有统计相似性,但却是独特的创作。这一能力使生成式AI成为现代 基础模型 的基石,推动了创意产业、软件开发和科学研究的创新。
生成式AI的核心是复杂的 神经网络 架构,它们学习编码和解码信息。这些模型通常使用 无监督学习 在海量数据集上进行训练。
要理解生成式AI,将其与判别式AI区分开来至关重要。尽管它们都是机器学习的支柱,但它们的目标显著不同。
生成式AI的多功能性使其能够应用于各种领域,通常与判别模型协同工作,以创建强大的工作流程。
生成式AI和判别式计算机视觉模型通常作为互补技术发挥作用。一个常见的流程是使用生成模型来扩充数据集,然后使用 Ultralytics Platform 等工具在该增强数据集上训练判别模型。
下面的Python 示例演示了如何使用 ultralytics 包来加载 YOLO26 模型。在混合工作流程中,您可以使用此代码来验证合成生成的图像中的对象。
from ultralytics import YOLO
# Load the YOLO26 model (Latest stable Ultralytics model)
model = YOLO("yolo26n.pt")
# Run inference on an image (e.g., a synthetic sample from a generative model)
# The model identifies objects within the generated content
results = model("https://ultralytics.com/images/bus.jpg")
# Display the detection results to verify the synthetic data quality
results[0].show()
尽管生成式AI功能强大,但它也带来了一些用户必须应对的特定挑战。模型有时会产生幻觉,生成听起来合理但事实不正确的信息或视觉伪影。此外,由于这些模型是在互联网规模的数据上训练的,它们可能会无意中传播源材料中存在的AI偏见。
正如各种 AI伦理框架所讨论的那样,版权和知识产权方面的伦理问题也十分突出。斯坦福大学以人为本人工智能研究院等研究人员和组织正在积极研究方法,以确保这些强大的工具能够负责任地开发和部署。此外,训练这些大型模型的计算成本,使得人们对 模型量化的兴趣日益增长,以使边缘设备上的推理更加节能。

开启您的机器学习未来之旅