了解实例分割如何实现像素级目标检测。探索如何使用Ultralytics 进行高速实时遮罩生成等操作。
实例分割是计算机视觉(CV)领域的一项精密技术,能在像素级别识别并勾勒图像中每个独立目标的边界。标准目标检测通过矩形边界框定位物体,而实例分割则通过为每个检测实体生成精确遮罩,实现更深入的分析。 该能力使人工智能(AI)模型能够区分同类对象——例如分离两个重叠的人体——相较于简单的分类方法,能提供更丰富、更细致的视觉场景理解。
要充分理解实例分割的实用价值,有必要将其与其他相关的图像处理任务区分开来。根据应用需求,每种方法都提供不同粒度的处理能力。
现代实例分割模型通常依赖于先进的深度学习(DL)架构,特别是卷积神经网络(CNN)。这些网络从图像中提取特征,以同时预测物体的类别及其空间轮廓。历史上,两阶段架构如Mask R-CNN曾是标准方案,其流程首先提出感兴趣区域,随后将其精炼为掩膜。
然而,最近的进展催生了YOLO26等单阶段检测器,它们能够同时执行检测与分割任务。这种"端到端"方法显著提升了实时推理速度,使得在消费级硬件上对实时视频流进行高精度分割成为可能。
实例分割提供的精确边界对于那些需要了解物体确切形状和位置以进行决策的行业至关重要。
开发人员可以使用 ultralytics library. 以下示例演示了如何加载预训练模型。 YOLO26 模型
并为图像生成分割掩膜。
from ultralytics import YOLO
# Load a pre-trained YOLO26 instance segmentation model
# The 'n' suffix denotes the nano version, optimized for speed
model = YOLO("yolo26n-seg.pt")
# Run inference on an image
# This predicts classes, bounding boxes, and masks
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# Displays the image with overlaid segmentation masks
results[0].show()
尽管功能强大,实例分割相较于简单的边界框检测仍需消耗大量计算资源。生成像素级精确的遮罩需要GPU ,并要求数据标注具备高度精准性。为这些任务进行数据标注时,需围绕每个目标绘制紧密的多边形,这一过程往往耗时费力。
为简化此流程,团队常采用Ultralytics 该Ultralytics 提供数据集管理、自动标注及云端训练功能。这使开发者能够针对定制数据(如特定工业零件或生物样本)对模型进行微调,并通过ONNX等优化格式高效部署至边缘AI设备。 ONNX 或 TensorRT等格式高效部署至边缘AI设备。