了解实例分割如何实现像素级目标detect。探索如何使用Ultralytics YOLO26进行高速、实时掩码生成等。
实例分割是计算机视觉 (CV) 中的一项复杂技术,它在像素级别识别并描绘图像中每个独立的目标对象。虽然标准目标detect使用矩形bounding boxes定位物体,但实例分割通过为每个detect到的实体生成精确的mask,使分析更深入。这种能力允许人工智能 (AI) 模型区分同一类别的单个对象——例如分离两个重叠的人——与简单的分类方法相比,提供了对视觉场景更丰富、更详细的理解。
为了充分理解实例分割的实用性,有助于将其与其他相关的图像处理任务区分开来。每种方法根据应用需求提供不同级别的粒度。
现代实例分割模型通常依赖于先进的深度学习 (DL) 架构,尤其是卷积神经网络 (CNN)。这些网络从图像中提取特征,以预测对象的类别及其空间轮廓。历史上,Mask R-CNN等两阶段架构是标准方法,首先提出感兴趣区域,然后将其细化为mask。
然而,最近的进展催生了像YOLO26这样的单阶段detect器,它们同时执行detect和segment。这种“端到端”方法显著提高了实时推理速度,使得在消费级硬件上对实时视频流应用高精度segment成为可能。
实例分割提供的精确边界对于那些需要理解对象的精确形状和位置以进行决策的行业至关重要。
开发人员可以使用 ultralytics 库。以下示例演示了如何加载预训练的 YOLO26 模型,并为图像生成分割掩码。
from ultralytics import YOLO
# Load a pre-trained YOLO26 instance segmentation model
# The 'n' suffix denotes the nano version, optimized for speed
model = YOLO("yolo26n-seg.pt")
# Run inference on an image
# This predicts classes, bounding boxes, and masks
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# Displays the image with overlaid segmentation masks
results[0].show()
尽管实例分割功能强大,但与简单的边界框detect相比,它计算密集度更高。生成像素级精确的掩码需要大量的GPU资源和精确的数据标注。为这些任务标注数据涉及围绕每个对象绘制紧密的多边形,这可能非常耗时。
为了简化这一过程,团队通常会使用 Ultralytics Platform 等工具,该平台提供数据集管理、自动标注和基于云的训练等功能。这使得开发人员能够针对自定义数据(例如特定的工业零件或生物样本)微调模型,并使用 ONNX 或 TensorRT 等优化格式将其高效部署到 边缘 AI 设备上。

开启您的机器学习未来之旅