Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Explore o mais recente modelo Ultralytics YOLO , o Ultralytics YOLO26, e as suas caraterísticas de ponta que suportam um equilíbrio ótimo entre velocidade, precisão e capacidade de implementação.
No dia 25 de setembro, no nosso evento híbrido anual, YOLO Vision 2025 (YV25) em Londres, Glenn Jocher, o nosso Fundador e CEO, anunciou oficialmente o mais recente avanço na série de modelos Ultralytics YOLO , o Ultralytics YOLO26! Nosso novo modelo de visão computacional, YOLO26, pode analisar e interpretar imagens e vídeos com uma arquitetura simplificada que equilibra velocidade, precisão e facilidade de implantação.
Embora Ultralytics YOLO26 simplifique aspectos do design do modelo e adicione novas melhorias, continua também a oferecer as caraterísticas familiares que os utilizadores esperam dos modelos Ultralytics YOLO . Por exemplo, Ultralytics YOLO26 é fácil de utilizar, suporta uma série de tarefas de visão computacional e oferece opções flexíveis de integração e implementação.
Escusado será dizer que isto faz com que a mudança para a utilização do Ultralytics YOLO26 seja fácil, e mal podemos esperar para ver os utilizadores a experimentá-lo por si próprios quando estiver disponível ao público no final de outubro.
Fig. 1. Um exemplo de utilização do YOLO26 para detect objectos numa imagem.
Em termos simples, o Ultralytics YOLO26 é um modelo de IA de visão melhor, mais rápido e mais pequeno. Neste artigo, exploraremos os principais recursos do Ultralytics YOLO26 e o que ele traz para a mesa. Vamos começar!
Ultrapassar os limites da IA de visão com o Ultralytics YOLO26
Antes de nos debruçarmos sobre as principais caraterísticas do Ultralytics YOLO26 e as aplicações que torna possíveis, vamos dar um passo atrás e discutir a inspiração e a motivação que impulsionaram o desenvolvimento deste modelo.
Na Ultralytics, sempre acreditámos no poder da inovação. Desde o início, a nossa missão tem sido dupla. Por um lado, queremos tornar a Vision AI acessível para que qualquer pessoa possa usá-la sem barreiras. Por outro lado, estamos igualmente empenhados em mantê-la na vanguarda, ultrapassando os limites do que os modelos de visão computacional podem alcançar.
Um fator chave por trás desta missão é que o espaço da IA está sempre evoluindo. Por exemplo, a IA de borda (edge AI), que envolve a execução de modelos de IA diretamente em dispositivos em vez de depender da nuvem, está sendo adotada rapidamente em todos os setores.
De câmeras inteligentes a sistemas autônomos, espera-se agora que os dispositivos na borda processem informações em tempo real. Essa mudança exige modelos mais leves e rápidos, ao mesmo tempo em que oferecem o mesmo alto nível de precisão.
É por isso que existe uma necessidade constante de continuar a melhorar os nossos modelos Ultralytics YOLO . Como diz Glenn Jocher, "Um dos maiores desafios foi garantir que os utilizadores pudessem tirar o máximo partido do YOLO26 e, ao mesmo tempo, continuar a oferecer um desempenho de topo."
Uma visão geral do Ultralytics YOLO26
O YOLO26 está disponível de imediato em cinco variantes de modelo diferentes, dando-lhe a flexibilidade para aproveitar as suas capacidades em aplicações de qualquer escala. Todas essas variantes de modelo suportam múltiplas tarefas de visão computacional, assim como os modelos anteriores Ultralytics YOLO . Isto significa que, independentemente do tamanho que escolher, pode confiar no YOLO26 para fornecer uma vasta gama de capacidades, tal como o Ultralytics YOLO11.
Deteção de objectos: O YOLO26 pode identificar e localizar vários objectos numa imagem ou num quadro de vídeo.
Segmentação de instâncias: Indo um passo além da deteção, o YOLO26 pode gerar limites perfeitos de pixel em torno de cada objeto que identifica.
Classificação de imagens: O modelo pode analisar uma imagem inteira e atribuí-la a uma categoria ou rótulo específico.
Estimativa de pose: YOLO26 pode detect pontos-chave e estimar poses para humanos, bem como outros objectos.
Caixas delimitadoras orientadas (OBB): O modelo pode detect objetos em qualquer ângulo, o que é especialmente útil para imagens aéreas, de drones e de satélite, onde itens como edifícios, veículos ou culturas podem não estar alinhados com o quadro da imagem.
Seguimento de objectos: O YOLO26 pode ser utilizado para track objectos em quadros de vídeo ou fluxos em tempo real.
Fig 2. Detecção de objetos em uma imagem usando YOLO26.
Um olhar sobre a arquitetura do YOLO26
Agora que temos uma melhor compreensão do que o YOLO26 é capaz de fazer, vamos percorrer algumas das inovações em sua arquitetura.
O design do modelo foi otimizado com a remoção do módulo Distribution Focal Loss (DFL), que anteriormente retardava a inferência e limitava a regressão da caixa delimitadora.
O processo de previsão também foi simplificado com uma opção de inferência de ponta a ponta (E2E), que permite que o modelo ignore a etapa tradicional de Supressão Não MáximaNMS). Esta melhoria reduz a complexidade e permite que o modelo forneça resultados mais rapidamente, facilitando a implementação em aplicações do mundo real.
Outras melhorias tornam o modelo mais inteligente e confiável. O Progressive Loss Balancing (ProgLoss) ajuda a estabilizar o treinamento e melhorar a precisão, enquanto o Small-Target-Aware Label Assignment (STAL) garante que o modelo detecte objetos pequenos de forma mais eficaz. Além disso, um novo otimizador MuSGD melhora a convergência do treinamento e aumenta o desempenho geral.
De facto, a versão mais pequena do YOLO26, o modelo nano, agora funciona até 43% mais rápido em CPUs padrão, tornando-o especialmente adequado para aplicações móveis, câmaras inteligentes e outros dispositivos de ponta onde a velocidade e a eficiência são críticas.
Aqui está um resumo rápido dos recursos do YOLO26 e o que os utilizadores podem esperar:
Remoção da DFL: Removemos o módulo Distribution Focal Loss da arquitetura do modelo. Independentemente do tamanho dos objectos numa imagem, o YOLO26 pode colocar caixas delimitadoras personalizadas enquanto funciona de forma mais eficiente.
Inferência de ponta a ponta NMS: O YOLO26 adiciona um modo opcional que não necessita de Supressão Não Máxima (NMS), um passo normalmente utilizado para remover previsões duplicadas, tornando a implementação mais simples e rápida para utilização em tempo real.
ProgLoss e STAL: Estas melhorias tornam o treino mais estável e aumentam significativamente a precisão, especialmente na deteção de pequenos objectos em cenas complexas.
Optimizador MuSGD: O YOLO26 utiliza um novo optimizador que combina os pontos fortes de dois optimizadores de treino (Muon e SGD), ajudando o modelo a aprender mais rapidamente e a atingir uma maior precisão.
Fig. 3. Benchmarking do YOLO26.
Simplificar a implementação com o Ultralytics YOLO26
Quer esteja a trabalhar em aplicações móveis, câmaras inteligentes ou sistemas empresariais, a implementação do YOLO26 é simples e flexível. O pacoteUltralytics Python suporta um número cada vez maior de formatos de exportação, o que facilita a integração do YOLO26 nos fluxos de trabalho existentes e o torna compatível com quase todas as plataformas.
Algumas das opções de exportação incluem TensorRT para máxima aceleração GPU , ONNX para ampla compatibilidade, CoreML para aplicações iOS nativas, TFLite para Android e dispositivos de ponta e OpenVINO para desempenho optimizado em hardware Intel . Esta flexibilidade torna simples levar o YOLO26 do desenvolvimento para a produção sem obstáculos adicionais.
Outra parte crucial da implantação é garantir que os modelos sejam executados de forma eficiente em dispositivos com recursos limitados. É aqui que entra a quantização. Graças à sua arquitetura simplificada, o YOLO26 lida com isso excepcionalmente bem. Ele suporta a implantação INT8 (usando compressão de 8 bits para reduzir o tamanho e melhorar a velocidade com perda mínima de precisão), bem como meia precisão (FP16) para inferência mais rápida em hardware compatível.
Mais importante ainda, o YOLO26 oferece desempenho consistente em todos esses níveis de quantização, para que você possa confiar nele, quer esteja sendo executado em um servidor poderoso ou em um dispositivo de borda compacto.
Da robótica à manufatura: Casos de uso do YOLO26
O YOLO26 pode ser usado em uma ampla variedade de aplicações de visão computacional em diversos setores e casos de uso. Da robótica à manufatura, ele pode causar um impacto significativo, melhorando os fluxos de trabalho e permitindo uma tomada de decisão mais rápida e precisa.
Por exemplo, um bom exemplo é na robótica, onde o YOLO26 pode ajudar os robôs a interpretar seus arredores em tempo real. Isso torna a navegação mais suave e o manuseio de objetos mais preciso. Também permite uma colaboração mais segura com as pessoas.
Outro exemplo é a manufatura, onde o modelo pode ser usado para detecção de defeitos. Ele pode identificar automaticamente falhas nas linhas de produção de forma mais rápida e precisa do que a inspeção manual.
Fig 4. Detecção de garrafas em uma fábrica usando YOLO26.
Em geral, como o YOLO26 é melhor, mais rápido e mais leve, ele adapta-se facilmente a uma ampla gama de ambientes, desde dispositivos de ponta leves até grandes sistemas empresariais. Isso torna-o uma escolha prática para indústrias que procuram melhorar a eficiência, a precisão e a fiabilidade.
Principais conclusões
O Ultralytics YOLO26 é um modelo de visão por computador que é melhor, mais rápido e mais leve, mantendo-se ao mesmo tempo fácil de utilizar e continuando a oferecer um forte desempenho. Funciona numa vasta gama de tarefas e plataformas e estará disponível para todos no final de outubro. Mal podemos esperar para ver como a comunidade o utiliza para criar novas soluções e ultrapassar os limites da visão computacional.