인스턴스 분할이 픽셀 수준의 정밀도로 객체 감지를 개선하여 AI 애플리케이션을 위한 상세한 객체 마스크를 어떻게 가능하게 하는지 알아보세요.
인스턴스 세분화는 정교한 컴퓨터 비전(CV) 기술로, 이미지 내의 개별 객체를 식별하고 픽셀 수준에서 이미지 내의 개별 개체를 식별하고, 위치를 파악하고, 묘사합니다. 객체의 위치를 추정하는 객체의 위치를 직사각형 경계 상자로 추정하는 위치를 근사화하는 객체 감지와 달리, 인스턴스 세분화는 각각의 개별 객체의 정확한 모양을 윤곽을 그리는 정밀한 마스크를 생성합니다. 이러한 세밀한 수준의 디테일 덕분에 시스템은 같은 클래스의 여러 인스턴스를 구별할 수 있습니다. 자동차나 군중 속의 개별 사람을 구분하는 것과 같이 시스템이 동일한 클래스의 여러 인스턴스를 구별할 수 있게 해주며, 이는 고급 인공 지능(AI) 애플리케이션의 핵심 요소입니다.
인스턴스 분할을 완전히 이해하려면 다른 기본 컴퓨터 비전 작업과 비교하는 것이 도움이 됩니다. 컴퓨터 비전 작업과 비교하면 도움이 됩니다:
인스턴스 분할은 객체 감지의 로컬라이제이션 기능과 픽셀 수준의 시맨틱 분할의 시맨틱 세분화의 정밀도를 효과적으로 결합합니다.
인스턴스 세분화 모델은 일반적으로 딥 러닝(DL) 아키텍처, 특히 컨볼루션 신경망(CNN)을 사용하여 이미지에서 특징을 추출합니다. 이 프로세스에는 일반적으로 두 가지 병렬 단계가 포함됩니다:
Mask R-CNN과 같은 초기 접근 방식은 먼저 2단계 프로세스를 활용했습니다. 영역 제안을 생성한 다음 이를 구체화하는 2단계 프로세스를 사용했습니다. 다음과 같은 최신 아키텍처는 Ultralytics YOLO11와 같은 최신 아키텍처는 이 문제를 혁신적으로 개선하여 탐지 및 세분화를 단일 단계로 수행함으로써 이 문제를 혁신적으로 개선했습니다. 이를 통해 실시간 추론이 가능하여 라이브 비디오 스트림에서 오브젝트를 빠르고 정확하게 segment 수 있습니다.
인스턴스 세분화가 제공하는 정밀한 경계 탐지는 다양한 산업 분야에서 필수적인 기능입니다:
개발자는 다음을 사용하여 인스턴스 세분화를 쉽게 구현할 수 있습니다. ultralytics Python 패키지. 라이브러리
지원 YOLO11 모델에 대해 사전 훈련된
COCO 데이터 세트를 사용하면 80개의 일반적인 개체 범주를 즉시 detect segment 수 있습니다.
바로 사용할 수 있습니다.
다음은 모델을 로드하고 이미지에서 세그먼테이션을 실행하는 방법에 대한 간결한 예시입니다:
from ultralytics import YOLO
# Load a pre-trained YOLO11 instance segmentation model
model = YOLO("yolo11n-seg.pt")
# Run inference on an image
# The model predicts classes, boxes, and masks simultaneously
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Visualize the results with masks plotted
results[0].show()
이를 자신의 데이터에 적용하려는 사용자를 위해 이 프레임워크는 다음을 지원합니다. 사용자 정의 데이터 세트에 대한 학습을 지원하여 모델이 틈새 애플리케이션에 특화된 새로운 틈새 애플리케이션에 특화된 클래스를 학습할 수 있습니다.

