Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Descubra o YOLOv5 v7.0 com novos modelos de segmentação de instâncias, superando os benchmarks SOTA para uma precisão e velocidade de IA de topo. Junte-se à nossa comunidade.
O YOLOv5 v7.0, a versão mais recente da nossa arquitetura de IA, foi lançado e estamos entusiasmados por apresentar os nossos novos modelos de segmentação de instâncias!
Enquanto trabalhávamos nesta última versão, mantivemos dois objectivos em primeiro plano. O primeiro era a nossa missão de tornar a IA fácil, e o segundo era o nosso objetivo de redefinir o verdadeiro significado de "topo de gama".
Assim, com melhorias significativas, correcções e actualizações, fizemos exatamente isso. Mantendo os mesmos fluxos de trabalho simples dos nossos modelos de deteção de objectos YOLOv5 existentes, agora é mais fácil do que nunca treinar, validar e implementar os seus modelos com o YOLOv5 v7.0. Para além disso, ultrapassámos todos os benchmarks SOTA, tornando o YOLOv5 o mais rápido e preciso do mundo.
Como este é o nosso primeiro lançamento de modelos de segmentação, estamos imensamente orgulhosos deste marco. Devemos muitos agradecimentos à nossa comunidade dedicada e aos nossos colaboradores, que ajudaram a tornar este lançamento possível.
Eis o que foi atualizado no YOLOv5 desde o nosso último lançamento do YOLOv5 v6.2 em agosto de 2022.
Modelos de segmentação ⭐ NOVO: Os modelos de segmentação pré-treinados pelo SOTA YOLOv5-seg COCO estão agora disponíveis pela primeira vez(#9052 por @glenn-jocher, @AyushExel e @Laughing-q)
Exportação PaddlePaddle: Exportar qualquer modelo YOLOv5 (cls, seg, det) para o formato Paddle com python export.py --include paddle #9459 by @glenn-jocher)
YOLOv5 AutoCache: Usar python train.py --cache ram agora examinará a memória disponível e comparará com o uso previsto de RAM do conjunto de dados. Isso reduz o risco no cache e deve ajudar a melhorar a adoção do recurso de cache de conjunto de dados, que pode acelerar significativamente o treinamento.(#10027 por @glenn-jocher)
Integração de registo e visualização do Comet: Gratuito para sempre, o Comet permite-lhe guardar modelos YOLOv5, retomar a formação e visualizar e depurar interactivamente as previsões.(#9232 por @DN6)
Novos pontos de controlo de segmentação
Treinámos os modelos de segmentação YOLOv5 no COCO durante 300 épocas com o tamanho de imagem 640 utilizando GPUs A100. Exportámos todos os modelos para ONNX FP32 para testes de velocidade da CPU e para TensorRT FP16 para testes de velocidade da GPU. Executámos todos os testes de velocidade em computadores portáteis Google Colab Pro para facilitar a reprodutibilidade.
Todos os pontos de controlo são treinados para 300 épocas com o optimizador SGD com lr0=0,01 e weight_decay=5e-5 com o tamanho de imagem 640 e todas as predefinições. Todas as execuções são registadas aqui.
Os valores de exatidão são para um modelo único de escala única no conjunto de dados COCO. Reproduzir por python segment/val.py --data coco.yaml --weights yolov5s-seg.pt
Velocidade média de 100 imagens de inferência usando uma instância Colab Pro A100 High-RAM. Os valores indicam apenas a velocidade de inferência (o NMS acrescenta cerca de 1ms por imagem). Reproduzir por python segment/val.py --data coco.yaml --weights yolov5s-seg.pt --batch 1
Exportação para ONNX em FP32 e TensorRT em FP16 efectuada com export.py. Reproduzir por python export.py --weights yolov5s-seg.pt --include engine --device 0 --half
Exemplos de utilização da nova segmentação
Comboio
O treino de segmentação YOLOv5 suporta o descarregamento automático do conjunto de dados de segmentação COCO128-seg com o argumento --data coco128-seg.yaml e o descarregamento manual do conjunto de dados COCO-segments com bash data/scripts/get_coco.sh --train --val --segments e depois python train.py --data coco.yaml.