Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Explore o mais recente modelo Ultralytics YOLO, o Ultralytics YOLO26, e as suas caraterísticas de ponta que suportam um equilíbrio ótimo entre velocidade, precisão e capacidade de implementação.
No dia 25 de setembro, no nosso evento híbrido anual, YOLO Vision 2025 (YV25) em Londres, Glenn Jocher, o nosso Fundador e CEO, anunciou oficialmente o mais recente avanço na série de modelos Ultralytics YOLO, o Ultralytics YOLO26! Nosso novo modelo de visão computacional, YOLO26, pode analisar e interpretar imagens e vídeos com uma arquitetura simplificada que equilibra velocidade, precisão e facilidade de implantação.
Embora o Ultralytics YOLO26 simplifique aspectos do design do modelo e adicione novas melhorias, continua também a oferecer as caraterísticas familiares que os utilizadores esperam dos modelos Ultralytics YOLO. Por exemplo, o Ultralytics YOLO26 é fácil de utilizar, suporta uma série de tarefas de visão computacional e oferece opções flexíveis de integração e implementação.
Escusado será dizer que isto faz com que a mudança para a utilização do Ultralytics YOLO26 seja fácil, e mal podemos esperar para ver os utilizadores a experimentá-lo por si próprios quando estiver disponível ao público no final de outubro.
Fig. 1. Um exemplo de utilização do YOLO26 para detetar objectos numa imagem.
Em termos simples, o Ultralytics YOLO26 é um modelo de IA de visão melhor, mais rápido e mais pequeno. Neste artigo, exploraremos os principais recursos do Ultralytics YOLO26 e o que ele traz para a mesa. Vamos começar!
Ultrapassar os limites da IA de visão com o Ultralytics YOLO26
Antes de nos debruçarmos sobre as principais caraterísticas do Ultralytics YOLO26 e as aplicações que torna possíveis, vamos dar um passo atrás e discutir a inspiração e a motivação que impulsionaram o desenvolvimento deste modelo.
Na Ultralytics, sempre acreditámos no poder da inovação. Desde o início, a nossa missão tem sido dupla. Por um lado, queremos tornar a Vision AI acessível para que qualquer pessoa possa usá-la sem barreiras. Por outro lado, estamos igualmente empenhados em mantê-la na vanguarda, ultrapassando os limites do que os modelos de visão computacional podem alcançar.
Um fator-chave por detrás desta missão é o facto de o espaço da IA estar sempre a evoluir. Por exemplo, a IA de ponta, que envolve a execução de modelos de IA diretamente nos dispositivos em vez de depender da nuvem, está a ser adoptada rapidamente em todos os sectores.
Desde câmaras inteligentes a sistemas autónomos, espera-se agora que os dispositivos na periferia processem informações em tempo real. Esta mudança exige modelos que sejam mais leves e mais rápidos, mas que continuem a oferecer o mesmo nível elevado de precisão.
É por isso que existe uma necessidade constante de continuar a melhorar os nossos modelos Ultralytics YOLO. Como diz Glenn Jocher, "Um dos maiores desafios foi garantir que os utilizadores pudessem tirar o máximo partido do YOLO26 e, ao mesmo tempo, continuar a oferecer um desempenho de topo."
Uma visão geral do Ultralytics YOLO26
O YOLO26 está disponível de imediato em cinco variantes de modelo diferentes, dando-lhe a flexibilidade para aproveitar as suas capacidades em aplicações de qualquer escala. Todas essas variantes de modelo suportam várias tarefas de visão computacional, assim como os modelos anteriores do Ultralytics YOLO. Isto significa que, independentemente do tamanho que escolher, pode confiar no YOLO26 para fornecer uma vasta gama de capacidades, tal como o Ultralytics YOLO11.
Deteção de objectos: YOLO26 pode identificar e localizar vários objectos dentro de uma imagem ou quadro de vídeo.
Segmentação de instâncias: Indo um passo além da deteção, o YOLO26 pode gerar limites perfeitos de pixel em torno de cada objeto que identifica.
Classificação de imagens: O modelo pode analisar uma imagem inteira e atribuí-la a uma categoria ou etiqueta específica.
Estimativa de pose: O YOLO26 pode detetar pontos-chave e estimar poses para humanos e outros objectos.
Caixas delimitadoras orientadas (OBB): O modelo pode detetar objectos em qualquer ângulo, o que é especialmente útil para imagens aéreas, de drones e de satélite, em que itens como edifícios, veículos ou culturas podem não estar alinhados com o enquadramento da imagem.
Seguimento de objectos: O YOLO26 pode ser utilizado para localizar objectos em quadros de vídeo ou fluxos em tempo real.
Fig. 2. Deteção de objectos numa imagem utilizando YOLO26.
Um olhar sobre a arquitetura do YOLO26
Agora que compreendemos melhor o que o YOLO26 é capaz de fazer, vamos analisar algumas das inovações na sua arquitetura.
A conceção do modelo foi simplificada com a remoção do módulo Distribution Focal Loss (DFL), que anteriormente tornava a inferência mais lenta e limitava a regressão da caixa delimitadora.
O processo de previsão também foi simplificado com uma opção de inferência de ponta a ponta (E2E), que permite que o modelo ignore a etapa tradicional de Supressão Não Máxima (NMS). Esta melhoria reduz a complexidade e permite que o modelo forneça resultados mais rapidamente, facilitando a implementação em aplicações do mundo real.
Outras melhorias tornam o modelo mais inteligente e mais fiável. O Progressive Loss Balancing (ProgLoss) ajuda a estabilizar o treino e a melhorar a precisão, enquanto o Small-Target-Aware Label Assignment (STAL) garante que o modelo detecta objectos pequenos de forma mais eficaz. Além disso, um novo optimizador MuSGD melhora a convergência do treino e aumenta o desempenho geral.
De facto, a versão mais pequena do YOLO26, o modelo nano, funciona agora até 43% mais depressa em CPUs normais, o que o torna especialmente adequado para aplicações móveis, câmaras inteligentes e outros dispositivos de ponta em que a velocidade e a eficiência são fundamentais.
Eis uma rápida recapitulação das funcionalidades do YOLO26 e do que os utilizadores podem esperar:
Remoção da DFL: Removemos o módulo Distribution Focal Loss da arquitetura do modelo. Independentemente dos tamanhos dos objetos em uma imagem, o YOLO26 pode colocar caixas delimitadoras personalizadas enquanto executa com mais eficiência.
Inferência de ponta a ponta sem NMS: YOLO26 adiciona um modo opcional que não precisa de Supressão Não Máxima (NMS), uma etapa normalmente usada para remover previsões duplicadas, tornando a implantação mais simples e rápida para uso em tempo real.
ProgLoss e STAL: Estas melhorias tornam o treino mais estável e aumentam significativamente a precisão, especialmente para a deteção de pequenos objectos em cenas complexas.
Optimizador MuSGD: O YOLO26 utiliza um novo optimizador que combina os pontos fortes de dois optimizadores de treino (Muon e SGD), ajudando o modelo a aprender mais rapidamente e a atingir uma maior precisão.
Figura 3. Avaliação comparativa do YOLO26.
Simplificar a implementação com o Ultralytics YOLO26
Quer esteja a trabalhar em aplicações móveis, câmaras inteligentes ou sistemas empresariais, a implementação do YOLO26 é simples e flexível. O pacote Ultralytics Python suporta um número cada vez maior de formatos de exportação, o que facilita a integração do YOLO26 nos fluxos de trabalho existentes e torna-o compatível com quase todas as plataformas.
Algumas das opções de exportação incluem TensorRT para máxima aceleração de GPU, ONNX para ampla compatibilidade, CoreML para aplicações iOS nativas, TFLite para Android e dispositivos de ponta e OpenVINO para desempenho optimizado em hardware Intel. Esta flexibilidade torna simples levar o YOLO26 do desenvolvimento para a produção sem obstáculos adicionais.
Outra parte crucial da implementação é garantir que os modelos são executados de forma eficiente em dispositivos com recursos limitados. É aqui que entra a quantização. Graças à sua arquitetura simplificada, o YOLO26 lida excecionalmente bem com esta questão. Suporta a implementação INT8 (utilizando a compressão de 8 bits para reduzir o tamanho e melhorar a velocidade com uma perda mínima de precisão), bem como a meia-precisão (FP16) para uma inferência mais rápida no hardware suportado.
Mais importante ainda, o YOLO26 proporciona um desempenho consistente nestes níveis de quantização, pelo que pode confiar nele, quer esteja a ser executado num servidor potente ou num dispositivo de ponta compacto.
Da robótica ao fabrico: Casos de utilização do YOLO26
O YOLO26 pode ser utilizado numa grande variedade de aplicações de visão por computador em muitos sectores e casos de utilização diferentes. Da robótica ao fabrico, pode ter um impacto significativo, melhorando os fluxos de trabalho e permitindo uma tomada de decisões mais rápida e precisa.
Por exemplo, um bom exemplo é a robótica, onde o YOLO26 pode ajudar os robôs a interpretar o que os rodeia em tempo real. Isto torna a navegação mais suave e o manuseamento de objectos mais preciso. Também permite uma colaboração mais segura com as pessoas.
Outro exemplo é o fabrico, em que o modelo pode ser utilizado para a deteção de defeitos. Pode identificar automaticamente as falhas nas linhas de produção com maior rapidez e precisão do que a inspeção manual.
Fig. 4. Deteção de garrafas numa fábrica utilizando o YOLO26.
Em geral, como o YOLO26 é melhor, mais rápido e mais leve, adapta-se facilmente a uma vasta gama de ambientes, desde dispositivos de ponta leves a sistemas de grandes empresas. Isto torna-o uma escolha prática para as indústrias que procuram melhorar a eficiência, a precisão e a fiabilidade.
Principais conclusões
O Ultralytics YOLO26 é um modelo de visão por computador que é melhor, mais rápido e mais leve, mantendo-se ao mesmo tempo fácil de utilizar e continuando a oferecer um forte desempenho. Funciona numa vasta gama de tarefas e plataformas e estará disponível para todos no final de outubro. Mal podemos esperar para ver como a comunidade o utiliza para criar novas soluções e ultrapassar os limites da visão computacional.