Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Comparando Ultralytics YOLO11 vs modelos YOLO anteriores

Abirami Vina

4 min de leitura

2 de abril de 2025

Compare Ultralytics YOLOv8, YOLOv9, YOLOv10 e Ultralytics YOLO11 para entender como esses modelos evoluíram e melhoraram de 2023 a 2025.

Desde a automação de tarefas cotidianas até o auxílio na tomada de decisões informadas em tempo real, a inteligência artificial (IA) está remodelando o futuro de vários setores. Uma área particularmente fascinante da IA é a visão computacional, também conhecida como Visão de IA. Ela se concentra em permitir que as máquinas analisem e interpretem dados visuais como os humanos. 

Especificamente, os modelos de visão computacional estão impulsionando inovações que aprimoram tanto a segurança quanto a eficiência. Por exemplo, esses modelos são usados em carros autônomos para detectar pedestres e em câmeras de segurança para monitorar instalações 24 horas por dia. 

Alguns dos modelos de visão computacional mais conhecidos são os modelos YOLO (You Only Look Once), conhecidos por seus recursos de detecção de objetos em tempo real. Ao longo do tempo, os modelos YOLO melhoraram, com cada nova versão oferecendo melhor desempenho e mais flexibilidade.

Versões mais recentes, como o Ultralytics YOLO11, podem lidar com uma variedade de tarefas, como segmentação de instâncias, classificação de imagens, estimativa de pose e rastreamento de multi-objetos, com melhor precisão, velocidade e precisão do que nunca.

Neste artigo, compararemos Ultralytics YOLOv8, YOLOv9, YOLOv10 e Ultralytics YOLO11 para ter uma ideia melhor de como esses modelos evoluíram. Analisaremos seus principais recursos, resultados de benchmark e diferenças de desempenho. Vamos começar!

Uma visão geral do Ultralytics YOLOv8

O YOLOv8, lançado pela Ultralytics em 10 de janeiro de 2023, foi um grande passo em frente em comparação com os modelos YOLO anteriores. Ele é otimizado para detecção precisa em tempo real, combinando abordagens bem testadas com atualizações inovadoras para obter melhores resultados.

Indo além da detecção de objetos, ele também oferece suporte às seguintes tarefas de visão computacional: segmentação de instâncias, estimativa de pose, detecção de objetos com caixas delimitadoras orientadas (OBB) e classificação de imagens. Outro recurso importante do YOLOv8 é que ele está disponível em cinco variantes de modelo diferentes - Nano, Small, Medium, Large e X - para que você possa escolher o equilíbrio certo de velocidade e precisão com base em suas necessidades.

Devido à sua versatilidade e forte desempenho, o YOLOv8 pode ser usado em muitas aplicações do mundo real, como sistemas de segurança, cidades inteligentes, saúde e automação industrial.

__wf_reserved_inherit
Fig 1. Gestão de estacionamento em cidades inteligentes com YOLOv8.

Principais recursos do YOLOv8

Aqui está uma análise mais detalhada de alguns dos outros principais recursos do YOLOv8:

  • Arquitetura de detecção aprimorada: O YOLOv8 usa um backbone CSPDarknet aprimorado. Este backbone é otimizado para extração de recursos - o processo de identificar e capturar padrões ou detalhes importantes de imagens de entrada que ajudam o modelo a fazer previsões precisas.

  • Cabeça de detecção: Ele usa um design livre de âncoras e desacoplado, o que significa que não depende de formas de caixa delimitadora predefinidas (âncoras) e, em vez disso, aprende a prever os locais dos objetos diretamente. Devido à configuração desacoplada, as tarefas de classificar o que é o objeto e prever onde ele está (regressão) são tratadas separadamente, o que ajuda a melhorar a precisão e acelera o treinamento.

  • Equilibra precisão e velocidade: Este modelo alcança uma precisão impressionante, mantendo tempos de inferência rápidos, tornando-o adequado para ambientes de nuvem e edge.

  • Fácil de usar: O YOLOv8 foi projetado para ser fácil de começar - você pode começar a prever e ver resultados em apenas alguns minutos usando o pacote Ultralytics Python.

O YOLOv9 foca na eficiência computacional

O YOLOv9 foi lançado em 21 de fevereiro de 2024 por Chien-Yao Wang e Hong-Yuan Mark Liao do Instituto de Ciência da Informação, Academia Sinica, Taiwan. Ele suporta tarefas como detecção de objetos e segmentação de instâncias

Este modelo é construído sobre o Ultralytics YOLOv5 e introduz duas grandes inovações: Programmable Gradient Information (PGI) e Generalized Efficient Layer Aggregation Network (GELAN). 

O PGI ajuda o YOLOv9 a reter informações importantes enquanto processa dados através de suas camadas, o que leva a resultados mais precisos. Enquanto isso, o GELAN melhora a forma como o modelo usa suas camadas, impulsionando o desempenho e a eficiência computacional. Graças a essas atualizações, o YOLOv9 pode lidar com tarefas em tempo real em dispositivos edge e aplicativos móveis, onde os recursos de computação são frequentemente limitados.

__wf_reserved_inherit
Fig 2. Entendendo como o GELAN melhora a precisão do YOLOv9.

Principais características do YOLOv9

Aqui está um vislumbre de algumas das outras características principais do YOLOv8:

  • Alta precisão com eficiência: O YOLOv9 oferece alta precisão de detecção sem consumir muita capacidade de computação, tornando-o uma ótima escolha quando os recursos são limitados.
  • Modelos leves: As variantes de modelo leve do YOLOv9 são otimizadas para implementações edge e móveis. 
  • Fácil de usar: O YOLOv9 é suportado pelo pacote Ultralytics Python, por isso é simples de configurar e executar em diferentes ambientes, quer esteja a usar código ou a linha de comandos.

O YOLOv10 permite a detecção de objetos sem NMS

O YOLOv10 foi apresentado em 23 de maio de 2024 por pesquisadores da Universidade de Tsinghua e está focado na detecção de objetos em tempo real. Ele aborda as limitações nas versões anteriores do YOLO, removendo a necessidade de supressão não máxima (NMS), uma etapa de pós-processamento usada para eliminar detecções duplicadas, e refinando o design geral do modelo. Isso resulta em uma detecção de objetos mais rápida e eficiente, ao mesmo tempo em que atinge uma precisão de última geração.

Uma parte vital do que torna isso possível é uma abordagem de treinamento conhecida como atribuições duplas de rótulos consistentes. Ela combina duas estratégias: uma que permite que várias previsões aprendam com o mesmo objeto (um-para-muitos) e outra que se concentra em escolher a melhor previsão única (um-para-um). Como ambas as estratégias seguem as mesmas regras de correspondência, o modelo aprende a evitar duplicatas por conta própria, de modo que o NMS não é necessário.

__wf_reserved_inherit
Fig 3. O YOLOv10 usa atribuições duplas de rótulos consistentes para treinamento sem NMS.

A arquitetura do YOLOv10 também usa um backbone CSPNet aprimorado para aprender recursos de forma mais eficaz e um neck PAN (Path Aggregation Network) que combina informações de diferentes camadas, tornando-o melhor na detecção de objetos pequenos e grandes. Essas melhorias tornam possível usar o YOLOv10 para aplicações do mundo real em manufatura, varejo e direção autônoma.

Principais características do YOLOv10

Aqui estão algumas das outras características de destaque do YOLOv10:

  • Convoluções de kernel grande: O modelo usa convoluções de kernel grande para capturar mais contexto de áreas mais amplas da imagem, ajudando-o a entender melhor a cena geral.
  • Módulos de autoatenção parciais: O modelo incorpora módulos de autoatenção parciais para se concentrar nas partes mais importantes da imagem sem usar muita capacidade de computação, aumentando eficientemente o desempenho.
  • Variante de modelo única: Além dos tamanhos usuais do YOLOv10 - Nano, Small, Medium, Large e X - há também uma versão especial chamada YOLOv10b (Balanced). É um modelo mais amplo, o que significa que processa mais recursos em cada camada, o que ajuda a melhorar a precisão, mantendo o equilíbrio entre velocidade e tamanho.
  • Fácil de usar: O YOLOv10 é compatível com o pacote Ultralytics Python, tornando-o fácil de usar.

Ultralytics YOLO11: Velocidade e precisão aprimoradas

Este ano, em 30 de setembro, a Ultralytics lançou oficialmente o YOLO11 - um dos modelos mais recentes da série YOLO - em seu evento híbrido anual, YOLO Vision 2024 (YV24).

Esta versão introduziu melhorias significativas em relação às versões anteriores. O YOLO11 é mais rápido, mais preciso e altamente eficiente. Ele suporta toda a gama de tarefas de visão computacional com as quais os usuários do YOLOv8 estão familiarizados, incluindo detecção de objetos, segmentação de instâncias e classificação de imagens. Ele também mantém a compatibilidade com os fluxos de trabalho do YOLOv8, facilitando a transição suave dos usuários para a nova versão.

Além disso, o YOLO11 foi projetado para atender a uma ampla gama de necessidades computacionais - desde dispositivos de borda leves até sistemas de nuvem poderosos. O modelo está disponível nas versões de código aberto e empresarial, tornando-o adaptável para diferentes casos de uso.

É uma ótima opção para tarefas de precisão, como imagens médicas e detecção de satélites, bem como aplicações mais amplas em veículos autônomos, agricultura e saúde.

__wf_reserved_inherit
Fig. 4. Usando o Ultralytics YOLO11 para detectar, contar e rastrear o tráfego.

Principais características do YOLO11

Aqui estão algumas das outras características únicas do YOLO11:

  • Detecção rápida e eficiente: O YOLO11 apresenta um cabeçalho de detecção projetado para latência mínima, com foco na velocidade nas camadas de previsão final sem comprometer o desempenho.
  • Extração de recursos aprimorada: Uma arquitetura otimizada de backbone e neck aprimora a extração de recursos, levando a previsões mais precisas. 
  • Implantação perfeita em todas as plataformas: O YOLO11 é otimizado para ser executado de forma eficiente em dispositivos de borda, plataformas de nuvem e GPUs NVIDIA, garantindo adaptabilidade em diferentes ambientes.

Benchmarking de modelos YOLO no dataset COCO

Ao explorar diferentes modelos, nem sempre é fácil compará-los apenas olhando para suas características. É aí que entra o benchmarking. Ao executar todos os modelos no mesmo dataset, podemos medir e comparar objetivamente seu desempenho. Vamos dar uma olhada em como cada modelo se comporta no dataset COCO.

Ao comparar os modelos YOLO, cada nova versão traz melhorias notáveis em relação à precisão, velocidade e flexibilidade. Em particular, o YOLO11m dá um salto aqui, pois usa 22% menos parâmetros do que o YOLOv8m, o que significa que é mais leve e rápido de executar. Além disso, apesar de seu tamanho menor, ele atinge uma precisão média (mAP) mais alta no dataset COCO. Essa métrica mede o quão bem o modelo detecta e localiza objetos, portanto, um mAP mais alto significa previsões mais precisas. 

__wf_reserved_inherit
Fig. 5. Benchmarking do YOLO11 e outros modelos YOLO no dataset COCO.

Testando e comparando modelos YOLO em um vídeo

Vamos explorar como esses modelos se comportam em uma situação do mundo real.

Para comparar YOLOv8, YOLOv9, YOLOv10 e YOLO11, todos os quatro foram executados no mesmo vídeo de tráfego usando uma pontuação de confiança de 0,3 (o modelo exibe apenas as detecções quando tem pelo menos 30% de confiança de que identificou corretamente um objeto) e um tamanho de imagem de 640 para uma avaliação justa. Os resultados de detecção e rastreamento de objetos destacaram as principais diferenças na precisão, velocidade e precisão da detecção. 

Desde o primeiro frame, o YOLO11 detectou veículos grandes, como caminhões, que o YOLOv10 perdeu. O YOLOv8 e o YOLOv9 mostraram um desempenho decente, mas variaram dependendo das condições de iluminação e do tamanho do objeto. Veículos menores e distantes permaneceram um desafio em todos os modelos, embora o YOLO11 tenha mostrado melhorias notáveis nessas detecções também.

__wf_reserved_inherit
Fig. 6. Comparando YOLOv8, YOLOv9, YOLOv10 e YOLO11.

Em termos de velocidade, todos os modelos operaram entre 10 e 20 milissegundos por frame, rápido o suficiente para lidar com tarefas em tempo real a mais de 50 FPS. Por um lado, o YOLOv8 e o YOLOv9 forneceram detecções estáveis e confiáveis ao longo do vídeo. Curiosamente, o YOLOv10, projetado para menor latência, foi mais rápido, mas mostrou algumas inconsistências na detecção de certos tipos de objetos. 

O YOLO11, por outro lado, destacou-se por sua precisão, oferecendo um forte equilíbrio entre velocidade e exatidão. Embora nenhum dos modelos tenha tido um desempenho perfeito em todos os frames, a comparação lado a lado demonstrou claramente que o YOLO11 ofereceu o melhor desempenho geral. 

Qual modelo YOLO é o melhor para tarefas de visão computacional?

A seleção de um modelo para um projeto depende de seus requisitos específicos. Por exemplo, algumas aplicações podem priorizar a velocidade, enquanto outras podem exigir maior precisão ou enfrentar restrições de implantação que influenciam a decisão. 

Outro fator importante é o tipo de tarefas de visão computacional que você precisa abordar. Se você está procurando uma flexibilidade mais ampla em diferentes tarefas, o YOLOv8 e o YOLO11 são boas opções.

Se você escolher o YOLOv8 ou o YOLO11, realmente depende de suas necessidades. O YOLOv8 é uma opção sólida se você é novo em visão computacional e valoriza uma comunidade maior, mais tutoriais e extensas integrações de terceiros

Por outro lado, se você está procurando um desempenho de ponta com melhor precisão e velocidade, o YOLO11 é a melhor escolha, embora venha com uma comunidade menor e menos integrações devido a ser uma versão mais recente.

Principais conclusões

Do Ultralytics YOLOv8 ao Ultralytics YOLO11, a evolução da série de modelos YOLO reflete um esforço consistente em direção a modelos de visão computacional mais inteligentes. Cada versão do YOLO traz atualizações significativas em termos de velocidade, precisão e exatidão. 

À medida que a visão computacional continua a avançar, esses modelos oferecem soluções confiáveis para desafios do mundo real, desde a detecção de objetos até sistemas autônomos. O desenvolvimento contínuo dos modelos YOLO mostra o quão longe o campo chegou e o quanto mais podemos esperar no futuro.

Para saber mais sobre IA, visite nosso repositório no GitHub e interaja com nossa comunidade. Descubra avanços em vários setores, desde Visão de IA na manufatura até visão computacional na área da saúde. Confira nossas opções de licenciamento para começar seus projetos de Visão de IA hoje mesmo.

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência