Descubra como a segmentação de instâncias refina a detecção de objetos com precisão em nível de pixel, permitindo máscaras de objetos detalhadas para aplicações de IA.
A segmentação de instâncias é uma técnica sofisticada de técnica sofisticada de visão por computador (CV) que identifica, identifica, localiza e delineia objectos individuais dentro de uma imagem ao nível do pixel. Ao contrário da deteção de objectos, que aproxima a localização de um objeto localização de um objeto com uma caixa delimitadora retangular, a gera uma máscara precisa que delineia a forma exacta de cada objeto distinto. Este nível granular de Este nível granular de detalhe permite aos sistemas distinguir entre múltiplas instâncias da mesma classe - como separar dois carros sobrepostos ou pessoas individuais numa multidão - tornando-o um componente crítico na inteligência artificial (IA) aplicações.
Para compreender plenamente a segmentação de instâncias, é útil compará-la com outras tarefas fundamentais de visão computacional:
A segmentação de instâncias funde eficazmente as capacidades de localização da deteção de objectos com a precisão a nível de pixéis da segmentação semântica.
Os modelos de segmentação de instâncias utilizam geralmente arquitecturas de aprendizagem profunda (DL), especificamente Redes Neuronais Convolucionais (CNN), para extrair caraterísticas de uma imagem. O processo envolve normalmente duas etapas paralelas:
As primeiras abordagens, como a Mask R-CNN, utilizavam um processo em duas fases, primeiro gerando propostas de regiões e depois refinando-as. As arquitecturas modernas, como a Ultralytics YOLO11revolucionaram este processo, realizando a deteção e segmentação numa única fase. Isto permite inferência em tempo real, tornando possível segment objectos em fluxos de vídeo em direto com elevada velocidade e precisão.
A deteção precisa de limites oferecida pela segmentação de instâncias é indispensável em vários sectores:
Os programadores podem implementar facilmente a segmentação de instâncias utilizando a função ultralytics Pacote Python . A biblioteca
suporta YOLO11 modelos pré-treinados no
Conjunto de dados COCOque pode detect e segment 80 categorias de objectos comuns
da caixa.
Aqui está um exemplo conciso de como carregar um modelo e executar a segmentação numa imagem:
from ultralytics import YOLO
# Load a pre-trained YOLO11 instance segmentation model
model = YOLO("yolo11n-seg.pt")
# Run inference on an image
# The model predicts classes, boxes, and masks simultaneously
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Visualize the results with masks plotted
results[0].show()
Para os utilizadores que pretendem aplicar isto aos seus próprios dados, a estrutura suporta formação em conjuntos de dados personalizados, permitindo que o modelo aprenda novas classes específicas para aplicações de nicho.