Introdução à segmentação de instâncias no Ultralytics YOLOv5 v7.0
Descubra YOLOv5 v7.0 com novos modelos de segmentação de instâncias, superando os benchmarks SOTA para uma precisão e velocidade de IA de topo. Junte-se à nossa comunidade.

Descubra YOLOv5 v7.0 com novos modelos de segmentação de instâncias, superando os benchmarks SOTA para uma precisão e velocidade de IA de topo. Junte-se à nossa comunidade.

YOLOv5 v7.0, a versão mais recente da nossa arquitetura de IA, foi lançado e estamos entusiasmados por apresentar os nossos novos modelos de segmentação de instâncias!

Enquanto trabalhávamos nesta última versão, mantivemos dois objetivos em mente. O primeiro foi a nossa missão de facilitar a IA e o segundo foi o nosso objetivo de redefinir o que realmente significa “ultra moderno”.
Assim, com melhorias significativas, correcções e actualizações, fizemos exatamente isso. Mantendo os mesmos fluxos de trabalho simples dos nossos modelos de deteção de objectos YOLOv5 existentes, agora é mais fácil do que nunca treinar, validar e implementar os seus modelos com o YOLOv5 v7.0. Para além disso, ultrapassámos todos os benchmarks SOTA, tornando YOLOv5 o mais rápido e preciso do mundo.
Como esta é a nossa primeira versão de modelos de segmentação, estamos imensamente orgulhosos deste marco. Devemos muitos agradecimentos à nossa dedicada comunidade e colaboradores, que ajudaram a tornar esta versão possível.

Então, vamos começar com as notas de lançamento YOLOv5 v7.0!
Eis o que foi atualizado no YOLOv5 desde o nosso último lançamento do YOLOv5 v6.2 em agosto de 2022.
Treinámos os modelos de segmentação YOLOv5 no COCO durante 300 épocas com o tamanho de imagem 640 utilizando GPUs A100. Exportámos todos os modelos para ONNX FP32 para testes de velocidade CPU e para TensorRT FP16 para testes de velocidade GPU . Executámos todos os testes de velocidade em computadores portáteis Google Colab Pro para facilitar a reprodutibilidade.
O treino de segmentação YOLOv5 suporta o descarregamento automático do conjunto de dados de segmentação COCO128 com o argumento --data coco128-segyaml e o descarregamento manual do conjunto de dados COCO com bash data/scripts/get_coco.sh --train --val --segments e depois python train.py --data cocoyaml.
python segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640 --device 0,1,2,3
Validação da precisão do YOLOv5m-seg no conjunto de dados ImageNet:
bash data/scripts/get_coco.sh --val --segments # descarrega COCO val segments split (780MB, 5000 imagens) python segment.py --weights yolov5s-seg.pt --data cocoyaml --img 640 # valida
Use o YOLOv5m-seg pré-treinado para prever bus.jpg:
python segment.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load(ultralyticsyolov5', 'custom', 'yolov5m-seg.pt') # carregar a partir do PyTorch Hub (AVISO: inferência ainda não suportada)

Exportar o modelo YOLOv5s-seg para ONNX e TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0

Tem alguma dúvida? Pergunte no fórumUltralytics , levante um problema ou envie um PR no repositório. Também pode começar a utilizar o nosso bloco de notas Colab de segmentaçãoYOLOv5 para obter tutoriais de início rápido.