探索全景分割以统一语义分割和实例分割。了解Ultralytics YOLO26如何为AI项目提供精确的场景理解。
全景分割是一项全面的 计算机视觉 (CV) 任务,它统一了两种不同的图像分析形式:语义分割和实例分割。传统方法通常将这些任务分开处理——要么对“天空”或“草地”等背景区域进行一般性 classify,要么 detect “汽车”或“人”等特定对象——而全景分割则将它们结合到一个单一、连贯的框架中。这种方法为图像中的每个像素分配一个唯一值,提供完整的场景理解,区分可计数对象(称为“事物”)和无定形背景区域(称为“物质”)。通过确保每个像素都被考虑并 classify,这项技术比孤立的 detect 方法更能模拟人类的视觉感知。
为充分理解全景分割,了解其处理的视觉信息的二分法是很有帮助的。该任务将视觉世界分为两大主要类别:
这种区分对于先进的 人工智能 (AI) 系统至关重要,使其能够在环境中导航的同时与特定对象进行交互。
现代全景分割架构通常采用强大的 深度学习 (DL) 主干网络,例如 卷积神经网络 (CNN) 或 Vision Transformer (ViT),从图像中提取丰富的特征表示。该网络通常分为两个分支或“头部”:
然后,融合模块或后处理步骤会解决这些输出之间的冲突——例如,决定一个像素是属于“人物”实例还是其背后的“背景”墙——从而生成最终的、不重叠的 全景分割图。
全景分割的整体性使其在安全和上下文至关重要的行业中不可或缺。
尽管完整的全景训练可能很复杂,但开发人员可以使用 Ultralytics YOLO26 实现高精度的 实例分割——这是全景难题的关键组成部分。这个最先进的模型提供实时性能,并针对边缘部署进行了优化。
以下 python 示例演示了如何加载预训练的分割模型并运行推理以隔离不同的物体:
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Run inference on an image to segment individual instances
# The model identifies 'things' and generates pixel-perfect masks
results = model("https://ultralytics.com/images/bus.jpg")
# Display the resulting image with overlaid segmentation masks
results[0].show()
对于希望管理其 训练数据 并自动化标注流程的团队,Ultralytics Platform 提供了一套用于数据集管理和模型训练的工具。高质量的 数据标注 对于分割任务至关重要,因为模型需要精确的像素级标签才能有效学习。
了解不同 segment 类型之间的细微差别对于选择适合您项目的模型至关重要:
为了进一步探索这些任务中使用的数据集格式,您可以查阅 COCO dataset documentation,它是衡量分割性能的标准基准。

开启您的机器学习未来之旅