Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Explore o modelo Ultralytics YOLO mais recente, o Ultralytics YOLO26, e seus recursos de ponta que oferecem um equilíbrio ideal de velocidade, precisão e capacidade de implementação.
Em 25 de setembro, no nosso evento híbrido anual, YOLO Vision 2025 (YV25) em Londres, Glenn Jocher, o nosso Fundador & CEO, anunciou oficialmente o mais recente avanço na série de modelos Ultralytics YOLO, Ultralytics YOLO26! O nosso novo modelo de visão computacional, YOLO26, pode analisar e interpretar imagens e vídeos com uma arquitetura simplificada que equilibra velocidade, precisão e facilidade de implementação.
Embora o Ultralytics YOLO26 simplifique aspetos do design do modelo e adicione novos aprimoramentos, ele também continua a oferecer os recursos familiares que os utilizadores esperam dos modelos Ultralytics YOLO. Por exemplo, o Ultralytics YOLO26 é fácil de usar, suporta uma variedade de tarefas de visão computacional e oferece opções flexíveis de integração e implementação.
Desnecessário dizer que isso torna a mudança para o Ultralytics YOLOv8 livre de problemas, e mal podemos esperar para ver os usuários experimentando por si mesmos quando estiver disponível publicamente no final de outubro.
Fig. 1. Um exemplo de uso do YOLO26 para detectar objetos em uma imagem.
Simplificando, o Ultralytics YOLO26 é um modelo de Visão de IA melhor, mais rápido e menor. Neste artigo, exploraremos os principais recursos do Ultralytics YOLO26 e o que ele traz para a mesa. Vamos começar!
Expandindo os limites da Visão Computacional com Ultralytics YOLO26
Antes de nos aprofundarmos nos principais recursos do Ultralytics YOLO26 e nas aplicações que ele possibilita, vamos dar um passo atrás e discutir a inspiração e a motivação que impulsionaram o desenvolvimento deste modelo.
Na Ultralytics, sempre acreditamos no poder da inovação. Desde o início, nossa missão tem sido dupla. Por um lado, queremos tornar a Visão de IA acessível para que qualquer pessoa possa usá-la sem barreiras. Por outro lado, estamos igualmente comprometidos em mantê-la na vanguarda, ultrapassando os limites do que os modelos de visão computacional podem alcançar.
Um fator chave por trás desta missão é que o espaço da IA está sempre evoluindo. Por exemplo, a IA de borda (edge AI), que envolve a execução de modelos de IA diretamente em dispositivos em vez de depender da nuvem, está sendo adotada rapidamente em todos os setores.
De câmeras inteligentes a sistemas autônomos, espera-se agora que os dispositivos na borda processem informações em tempo real. Essa mudança exige modelos mais leves e rápidos, ao mesmo tempo em que oferecem o mesmo alto nível de precisão.
É por isso que há uma necessidade constante de continuar aprimorando nossos modelos Ultralytics YOLO. Como diz Glenn Jocher, "Um dos maiores desafios era garantir que os usuários pudessem tirar o máximo proveito do YOLO26, ao mesmo tempo em que ofereciam o melhor desempenho."
Uma visão geral do Ultralytics YOLOv8
O YOLO26 está disponível pronto para uso em cinco variantes de modelo diferentes, oferecendo a flexibilidade de aproveitar seus recursos em aplicações de qualquer escala. Todas essas variantes de modelo suportam várias tarefas de visão computacional, assim como os modelos Ultralytics YOLO anteriores. Isso significa que, não importa o tamanho que você escolha, pode contar com o YOLO26 para oferecer uma ampla gama de recursos, assim como o Ultralytics YOLO11.
Detecção de objetos: O YOLO26 pode identificar e localizar múltiplos objetos dentro de uma imagem ou frame de vídeo.
Segmentação de instâncias: Indo um passo além da detecção, o YOLOv8 pode gerar limites perfeitos em pixels ao redor de cada objeto que identifica.
Classificação de imagens: O modelo pode analisar uma imagem inteira e atribuí-la a uma categoria ou rótulo específico.
Estimativa de pose: O YOLO26 pode detectar pontos-chave e estimar poses para humanos, bem como para outros objetos.
Caixas delimitadoras orientadas (OBB): O modelo pode detectar objetos em qualquer ângulo, o que é especialmente útil para imagens aéreas, de drones e de satélite, onde itens como edifícios, veículos ou plantações podem não estar alinhados com o quadro da imagem.
Rastreamento de objetos: O YOLO26 pode ser usado para rastrear objetos em frames de vídeo ou streams em tempo real.
Fig 2. Detecção de objetos em uma imagem usando YOLO26.
Um olhar sobre a arquitetura do YOLO26
Agora que temos uma melhor compreensão do que o YOLO26 é capaz de fazer, vamos percorrer algumas das inovações em sua arquitetura.
O design do modelo foi otimizado com a remoção do módulo Distribution Focal Loss (DFL), que anteriormente retardava a inferência e limitava a regressão da caixa delimitadora.
O processo de previsão também foi simplificado com uma opção de inferência end-to-end (E2E), que permite que o modelo ignore a etapa tradicional de Supressão Não Máxima (NMS). Esta melhoria reduz a complexidade e permite que o modelo forneça resultados mais rapidamente, facilitando a implementação em aplicações do mundo real.
Outras melhorias tornam o modelo mais inteligente e confiável. O Progressive Loss Balancing (ProgLoss) ajuda a estabilizar o treinamento e melhorar a precisão, enquanto o Small-Target-Aware Label Assignment (STAL) garante que o modelo detecte objetos pequenos de forma mais eficaz. Além disso, um novo otimizador MuSGD melhora a convergência do treinamento e aumenta o desempenho geral.
De facto, a versão mais pequena do YOLO26, o modelo nano, agora funciona até 43% mais rápido em CPUs padrão, tornando-o especialmente adequado para aplicações móveis, câmaras inteligentes e outros dispositivos de ponta onde a velocidade e a eficiência são críticas.
Aqui está um resumo rápido dos recursos do YOLO26 e o que os utilizadores podem esperar:
Remoção de DFL: Removemos o módulo Distribution Focal Loss da arquitetura do modelo. Independentemente dos tamanhos dos objetos numa imagem, o YOLO26 pode colocar bounding boxes personalizadas enquanto é executado de forma mais eficiente.
Inferência end-to-end sem NMS: O YOLO26 adiciona um modo opcional que não precisa de Supressão Não Máxima (NMS), uma etapa normalmente usada para remover previsões duplicadas, tornando a implantação mais simples e rápida para uso em tempo real.
ProgLoss e STAL: Essas melhorias tornam o treinamento mais estável e aumentam significativamente a precisão, especialmente para detectar pequenos objetos em cenas complexas.
Otimizador MuSGD: O YOLO26 usa um novo otimizador que combina os pontos fortes de dois otimizadores de treinamento (Muon e SGD), ajudando o modelo a aprender mais rápido e alcançar maior precisão.
Fig. 3. Benchmarking do YOLO26.
Simplificando a implantação com o Ultralytics YOLO26
Quer esteja a trabalhar em aplicações móveis, câmaras inteligentes ou sistemas empresariais, implementar o YOLO26 é simples e flexível. O pacote Ultralytics Python suporta um número cada vez maior de formatos de exportação, o que facilita a integração do YOLO26 em fluxos de trabalho existentes e o torna compatível com quase qualquer plataforma.
Algumas das opções de exportação incluem TensorRT para máxima aceleração de GPU, ONNX para ampla compatibilidade, CoreML para aplicativos iOS nativos, TFLite para Android e dispositivos de borda, e OpenVINO para desempenho otimizado em hardware Intel. Essa flexibilidade torna simples levar o YOLO26 do desenvolvimento à produção sem obstáculos extras.
Outra parte crucial da implantação é garantir que os modelos sejam executados de forma eficiente em dispositivos com recursos limitados. É aqui que entra a quantização. Graças à sua arquitetura simplificada, o YOLO26 lida com isso excepcionalmente bem. Ele suporta a implantação INT8 (usando compressão de 8 bits para reduzir o tamanho e melhorar a velocidade com perda mínima de precisão), bem como meia precisão (FP16) para inferência mais rápida em hardware compatível.
Mais importante ainda, o YOLO26 oferece desempenho consistente em todos esses níveis de quantização, para que você possa confiar nele, quer esteja sendo executado em um servidor poderoso ou em um dispositivo de borda compacto.
Da robótica à manufatura: Casos de uso do YOLO26
O YOLO26 pode ser usado em uma ampla variedade de aplicações de visão computacional em diversos setores e casos de uso. Da robótica à manufatura, ele pode causar um impacto significativo, melhorando os fluxos de trabalho e permitindo uma tomada de decisão mais rápida e precisa.
Por exemplo, um bom exemplo é na robótica, onde o YOLO26 pode ajudar os robôs a interpretar seus arredores em tempo real. Isso torna a navegação mais suave e o manuseio de objetos mais preciso. Também permite uma colaboração mais segura com as pessoas.
Outro exemplo é a manufatura, onde o modelo pode ser usado para detecção de defeitos. Ele pode identificar automaticamente falhas nas linhas de produção de forma mais rápida e precisa do que a inspeção manual.
Fig 4. Detecção de garrafas em uma fábrica usando YOLO26.
Em geral, como o YOLO26 é melhor, mais rápido e mais leve, ele adapta-se facilmente a uma ampla gama de ambientes, desde dispositivos de ponta leves até grandes sistemas empresariais. Isso torna-o uma escolha prática para indústrias que procuram melhorar a eficiência, a precisão e a fiabilidade.
Principais conclusões
Ultralytics YOLO26 é um modelo de visão computacional que é melhor, mais rápido e mais leve, ao mesmo tempo em que permanece fácil de usar e ainda oferece um forte desempenho. Ele funciona em uma ampla gama de tarefas e plataformas e estará disponível para todos até o final de outubro. Mal podemos esperar para ver como a comunidade o usa para criar novas soluções e ultrapassar os limites da visão computacional.