Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Ultralytics : O novo padrão para IA de visão com prioridade para a borda

Saiba como Ultralytics define um novo padrão para IA de visão com prioridade na borda, com inferência de ponta a ponta NMS, CPU mais rápido CPU e implantação de produção simplificada.

Hoje, Ultralytics lança Ultralytics o YOLO26, o YOLO mais avançado e implantável até o momento. Anunciado pela primeira vez no YOLO 2025 (YV25), o YOLO26 representa uma mudança fundamental na forma como os modelos de visão computacional são treinados, implantados e dimensionados em sistemas do mundo real. 

A IA de visão está a avançar rapidamente para a periferia. Cada vez mais, imagens e vídeos são processados diretamente em dispositivos, câmaras, robôs e sistemas incorporados, onde a latência, a fiabilidade e o custo são mais importantes do que a computação em nuvem bruta. O YOLO26 foi concebido para esta realidade, oferecendo um desempenho líder mundial enquanto funciona de forma eficiente em CPUs, aceleradores de periferia e hardware de baixo consumo de energia.

Embora o YOLO26 seja um avanço significativo, ele ainda mantém a familiaridade e a simplicidade Ultralytics YOLO em que os programadores confiam. Ele se encaixa perfeitamente nos fluxos de trabalho existentes, suporta uma ampla gama de tarefas de visão e continua sendo fácil de usar, tornando a adoção simples para equipes de pesquisa e produção.

Ultralytics para deteção de objetos
Fig. 1. Um exemplo da utilização Ultralytics para deteção de objetos

Neste artigo, vamos detalhar tudo o que precisa saber sobre Ultralytics e o que um YOLO mais leve, menor e mais rápido significa para o futuro da IA de visão. Vamos começar!

Ultralytics define um novo padrão para a IA de visão

Ultralytics foi desenvolvido com base na ideia de que recursos de IA de visão impactantes devem ser de fácil acesso para todos. Acreditamos que ferramentas poderosas de visão computacional não devem ser restritas ou limitadas a um pequeno grupo de organizações.

Na YV25, em Londres, o nosso fundador e CEO, Glenn Jocher, partilhou as suas ideias sobre esta visão, afirmando: «A tecnologia de IA mais incrível está por trás de portas fechadas. Não é aberta. As grandes empresas controlam os novos desenvolvimentos e todos os outros têm de esperar na fila para ter acesso. Na Ultralytics, temos uma visão diferente. Queremos que a IA esteja ao alcance de todos.»

Ele também explicou que isso significa tirar a IA da nuvem e levá-la para ambientes do mundo real, acrescentando: “Queremos que a tecnologia não fique apenas na nuvem, mas seja transferida para dispositivos de ponta, para o seu telemóvel, seus veículos e sistemas de baixa potência. E queremos que essas pessoas incríveis que estão a criar soluções tenham acesso a isso.”

O YOLO26 reflete essa visão na prática: um modelo projetado para funcionar onde a IA de visão é realmente implantada, não onde é mais fácil criar protótipos.

Analisando o Ultralytics : um modelo de visão de última geração

Tal comoYOLO anteriores Ultralytics , o YOLO26 suporta várias tarefas de visão computacional dentro de uma única família de modelos unificada. Está disponível em cinco tamanhos: Nano (n), Pequeno (s), Médio (m), Grande (l) e Extra Grande (x), permitindo às equipas equilibrar velocidade, precisão e tamanho do modelo, dependendo das restrições de implementação.

Além da flexibilidade, o YOLO26 eleva o nível de desempenho. Em comparação com YOLO11, o modelo nano YOLO26 oferece CPU até 43% mais rápida, tornando-o um dos modelos de deteção de objetos de alta precisão mais rápidos disponíveis para implementação CPU e edge.

Ultralytics YOLO26
Fig. 2. Ultralytics é um modelo de visão de última geração.

Veja abaixo um resumo das tarefas de visão computacional suportadas pelo YOLO26:

  • Classificação de imagens: o YOLO26 pode analisar uma imagem inteira e atribuí-la a uma categoria específica, ajudando os sistemas a compreender o contexto geral de uma cena.
  • Detecção de objetos: O modelo pode encontrar e localizar vários objetos em imagens ou vídeos.
  • Segmentação de instâncias: o YOLO26 pode delinear objetos individuais com detalhes ao nível do pixel.
  • Estimativa de pose: pode ser usada para identificar pontos-chave e estimar poses de pessoas e outros objetos.
  • Detecção de caixa delimitadora orientada (OBB): O YOLO26 pode detect em diferentes ângulos, o que é especialmente útil para imagens aéreas e de satélite.
  • Rastreamento de objetos: em combinação com o Python Ultralytics Python , o YOLO26 pode ser usado para seguir objetos em quadros de vídeo e transmissões ao vivo.

Todas as tarefas suportam treinamento, validação, inferência e exportação dentro de uma estrutura consistente.

Principais inovações por trás do Ultralytics

Ultralytics apresenta várias inovações essenciais que melhoram a velocidade de inferência, a estabilidade do treino e a simplicidade da implementação. Aqui está uma visão geral dessas inovações:

  • Remoção do Distribution Focal Loss (DFL): O módulo DFL foi removido para simplificar a previsão da caixa delimitadora, melhorar a compatibilidade do hardware e facilitar a exportação e execução dos modelos em dispositivos de ponta e de baixo consumo de energia.
  • Inferência de ponta a ponta NMS: o YOLO26 foi projetado como um modelo nativo de ponta a ponta que gera previsões finais diretamente, eliminando a necessidade de supressão não máxima e reduzindo a latência de inferência e a complexidade de implementação.
  • Equilíbrio de perda progressiva + STAL: Estas estratégias de perda aprimoradas estabilizam o treinamento e aumentam a precisão da detecção, especialmente paradetect pequenos edetect .
  • Otimizador MuSGD: O YOLO26 utiliza um novo otimizador híbrido que combina SGD técnicas de otimização inspiradas em múons para um treino mais estável.
  • CPU até 43% mais rápida: otimizado especificamente para computação de ponta, o YOLO26 oferece CPU até 43% mais rápida, permitindo desempenho em tempo real em dispositivos de ponta.

A seguir, vamos examinar detalhadamente esses recursos de última geração que tornam o YOLO26 mais rápido, mais eficiente e mais fácil de implementar.

Simplificando a previsão através da remoção da perda focal de distribuição

YOLO anteriores utilizavam a perda focal de distribuição (DFL) durante o treino para melhorar a precisão da caixa delimitadora. Embora eficaz, a DFL introduzia complexidade adicional e impunha limites de regressão fixos que tornavam a exportação e a implementação mais desafiantes, especialmente em hardware de ponta e de baixa potência.

O YOLO26 remove totalmente o DFL. A remoção do DFL elimina os limites fixos de regressão da caixa delimitadora presentes nos modelos anteriores, melhorando a confiabilidade e a precisão na detecção de objetos muito grandes.

Ao simplificar o processo de previsão da caixa delimitadora, o YOLO26 torna-se mais fácil de exportar e funciona de forma mais fiável numa ampla gama de dispositivos de ponta e de baixo consumo de energia.

Inferência completa NMS com Ultralytics

Os pipelines tradicionais de deteção de objetos dependem da supressão não máxima (NMS) como uma etapa de pós-processamento para filtrar previsões sobrepostas. Embora eficaz, NMS latência, complexidade e fragilidade, especialmente ao implementar modelos em vários tempos de execução e alvos de hardware.

O YOLO26 introduz um modo de inferência nativo de ponta a ponta, no qual o modelo gera diretamente as previsões finais sem exigir NMS uma etapa separada de pós-processamento. As previsões duplicadas são tratadas dentro da própria rede.

A eliminação NMS a latência, simplifica os pipelines de implementação e diminui o risco de erros de integração, tornando o YOLO26 particularmente adequado para implementações em tempo real e de ponta.

Melhorando o reconhecimento com Progressive Loss Balancing + STAL

Uma característica crucial relacionada ao treinamento é a introdução do Progressive Loss Balancing (ProgLoss) e do Small-Target-Aware Label Assignment (STAL). Essas funções de perda aprimoradas ajudam a estabilizar o treinamento e melhorar a precisão da detecção.

O ProgLoss ajuda o modelo a aprender de forma mais consistente durante o treino, reduzindo a instabilidade e permitindo uma convergência mais suave. Por sua vez, o STAL concentra-se em melhorar a forma como o modelo aprende a partir de objetos pequenos, que muitas vezes são mais difíceis de detect aos detalhes visuais limitados.

Juntos, o ProgLoss e o STAL proporcionam detecções mais fiáveis, com melhorias notáveis no reconhecimento de objetos pequenos. Isso é especialmente importante para aplicações de ponta, como a Internet das Coisas (IoT), robótica e imagens aéreas, onde os objetos são frequentemente pequenos, distantes ou parcialmente visíveis.

Treinamento mais estável com o otimizador MuSGD 

Com o YOLO26, adotamos um novo otimizador chamado MuSGD, projetado para tornar o treinamento mais estável e eficiente. O MuSGD é uma abordagem híbrida que combina os pontos fortes do tradicional Stochastic Gradient Descent (SGD) com técnicas inspiradas no Muon, um otimizador usado no treinamento de grandes modelos de linguagem (LLM).

SGD sido uma escolha confiável em visão computacional há muito tempo, graças à sua simplicidade e forte generalização. Ao mesmo tempo, avanços recentes no treinamento de LLM mostraram que métodos de otimização mais recentes podem melhorar a estabilidade e a velocidade quando aplicados com cuidado. O MuSGD traz algumas dessas ideias para o espaço da visão computacional.

Inspirado no Kimi K2 da Moonshot AI, o MuSGD incorpora estratégias de otimização que ajudam o modelo a convergir de forma mais suave durante o treino. Isso permite que o YOLO26 alcance um desempenho forte mais rapidamente, reduzindo a instabilidade do treino, especialmente em configurações de treino maiores ou mais complexas.

O MuSGD ajuda o YOLO26 a treinar de forma mais previsível em todos os tamanhos de modelo, contribuindo tanto para ganhos de desempenho quanto para a estabilidade do treinamento.

Ultralytics oferece CPU até 43% mais rápida

À medida que a IA de visão continua a aproximar-se do local onde os dados são gerados, um forte desempenho de ponta torna-se cada vez mais crucial. Otimizado especificamente para computação de ponta, o YOLO26 oferece CPU até 43% mais rápida, garantindo desempenho em tempo real em dispositivos sem GPUs. Essa melhoria permite que sistemas de visão responsivos e confiáveis sejam executados diretamente em câmaras, robôs e hardware incorporado, onde a latência, a eficiência e as restrições de custo definem o que é possível.

Tarefas de visão computacional aprimoradas com suporte do Ultralytics

Além das melhorias arquitetónicas que tornam a deteção de objetos mais precisa, o YOLO26 também inclui otimizações específicas para tarefas, projetadas para melhorar o desempenho em tarefas de visão computacional. Por exemplo, ele aprimora a segmentação de instâncias, a estimativa de poses e a deteção de caixas delimitadoras orientadas com atualizações direcionadas que melhoram a precisão e a confiabilidade.

Aqui está uma visão geral dessas otimizações:

  • Segmentação de instâncias: o YOLO26 usa perda de segmentação semântica para melhorar a forma como o modelo aprende durante o treinamento, o que leva a máscaras de instância mais precisas e consistentes. Um módulo proto atualizado também permite o uso de informações de várias escalas, para que o modelo lide com objetos de tamanhos diferentes de forma mais eficaz, mesmo em cenas complexas.
  • Estimativa de pose: Ao integrar a Estimativa Residual de Log-Verossimilhança (RLE), uma técnica que modela a incerteza nas previsões de pontos-chave, e melhorar o processo de descodificação, o YOLO26 oferece pontos-chave mais precisos com melhor desempenho em tempo real.
  • Detecção de caixa delimitadora orientada: o YOLO26 introduz uma perda de ângulo especializada que ajuda o modelo a aprender a rotação do objeto com mais precisão, especialmente para objetos quadrados, onde a orientação pode ser ambígua. A decodificação OBB otimizada também reduz saltos repentinos nas previsões de ângulo perto dos limites de rotação, resultando em estimativas de orientação mais estáveis e consistentes.
Usando Ultralytics para segmentação de instâncias.
Fig. 3. Utilização Ultralytics para segmentação de instâncias.

Ultralytics : segmentação de vocabulário aberto baseada no YOLO26

Ultralytics também Ultralytics apresentar o YOLOE-26, uma nova família de modelos de segmentação de vocabulário aberto baseados na arquitetura e nas inovações de treino do YOLO26.

O YOLOE-26 não é uma nova tarefa ou funcionalidade, mas uma família de modelos especializados que reutiliza a tarefa de segmentação existente, permitindo prompts de texto, prompts visuais e inferência sem prompts. Disponível em todos YOLO padrão YOLO , o YOLOE-26 oferece maior precisão e desempenho mais confiável no mundo real do que os modelos de segmentação de vocabulário aberto anteriores.

Ultralytics foi projetado para onde a IA de visão realmente funciona.

Desde câmaras orientadas por visão até robôs alimentados por visão computacional e pequenos chips de processamento na periferia, a visão computacional e a IA estão a ser implementadas diretamente nos dispositivos para inferência em tempo real. Ultralytics foi desenvolvido especificamente para esses ambientes, onde baixa latência, eficiência e desempenho confiável são vitais.

Na prática, isso significa que o YOLO26 pode ser facilmente implementado em uma ampla variedade de hardwares. Especificamente, por meio doPython Ultralytics Python e sua ampla gama de integrações, os modelos podem ser exportados para formatos otimizados para diferentes plataformas e aceleradores de hardware.

Por exemplo, a exportação para TensorRT inferência de alto desempenho em NVIDIA , enquanto CoreML implementação nativa em dispositivos Apple e OpenVINO o desempenho em Intel . O YOLO26 também pode ser exportado para ser executado em vários aceleradores de borda dedicados, permitindo inferência de alto rendimento e eficiência energética em hardware Edge AI especializado. 

Estes são apenas alguns exemplos, com muitas outras integrações suportadas em ambientes de ponta e de produção. Essa flexibilidade permite que um único modelo YOLO26 seja executado em diversos alvos de implementação. Isso simplifica os fluxos de trabalho de produção e aproxima a IA de visão da ponta.

Redefinindo os casos de uso da visão computacional em todos os setores

Projetado para implementação no mundo real, o YOLO26 pode ser usado em uma ampla gama de casos de uso de visão computacional em diferentes setores. Aqui estão alguns exemplos de onde ele pode ser aplicado:

  • Robótica: O YOLO26 pode ser usado para tarefas como navegação, deteção de obstáculos e interação com objetos. Esses recursos permitem operações robóticas seguras e eficazes em ambientes dinâmicos.
  • Fabricação: Nas linhas de produção, o YOLO26 pode analisar imagens e vídeos para identificar defeitos, componentes em falta ou problemas no processo. O processamento de dados no dispositivo mantém a detecção rápida e reduz a dependência de sistemas na nuvem.
  • Aplicações aéreas e com drones: Quando implantado em drones, o YOLO26 pode processar imagens aéreas durante o voo para inspeção, mapeamento e levantamento. Isso torna possível analisar cenas em tempo real, mesmo em locais remotos.
  • Sistemas incorporados e IoT: Com o seu design leve, o YOLO26 pode ser executado em hardware incorporado de baixa potência para processar dados visuais localmente. Os casos de uso comuns incluem câmaras inteligentes, sensores conectados e dispositivos de monitorização automatizados.

Cidades inteligentes: Em ambientes urbanos, o YOLO26 pode analisar fluxos de vídeo de câmaras de trânsito e de espaços públicos. Isso permite aplicações como monitoramento de trânsito, segurança pública e gestão de infraestrutura na periferia.

O YOLO26 pode ser utilizado para várias aplicações de visão computacional.
Fig. 4. O YOLO26 pode ser usado para várias aplicações de visão computacional.

Introdução ao Ultralytics

Ultralytics pode ser usado através de dois fluxos de trabalho complementares, dependendo de como você constrói e implementa a IA de visão.

Opção 1: Utilizar Ultralytics através da Ultralytics (recomendado)

A Ultralytics oferece uma maneira centralizada de treinar, implementar e monitorar modelos YOLO26 em produção. Ela reúne conjuntos de dados, experiências e implementações em um único lugar, facilitando o gerenciamento de fluxos de trabalho de IA de visão em escala, especialmente para equipas que implementam em ambientes de ponta e de produção.

Através da Plataforma, os utilizadores podem:

  • Aceder aos modelos YOLO26
  • Treine e ajuste com conjuntos de dados personalizados
  • Exportar modelos para implementação em borda e produção
  • Monitorize experiências e modelos implementados num único fluxo de trabalho

👉 Explore o YOLO26 na Ultralytics : platform.ultralytics.ultralytics

Opção 2: Utilizar Ultralytics através de fluxos de trabalho de código aberto

O YOLO26 continua totalmente acessível através do ecossistema de código aberto Ultralyticse pode ser usado com fluxos de trabalho existentes Python para treinamento, inferência e exportação.

Os programadores podem instalar o Ultralytics , carregar modelos YOLO26 pré-treinados e implementá-los utilizando ferramentas e formatos familiares, como ONNX, TensorRT, CoreML ou OpenVINO.

pip install ultralytics
from ultralytics import YOLO

# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Para utilizadores que preferem controlo prático ou pipelines personalizados, está disponível documentação completa e guias na Ultralytics .

Ultralytics : Concebido para o futuro da visão computacional

Ultralytics foi concebido para atender às necessidades das soluções de IA de visão do futuro, nas quais os modelos terão de ser rápidos, eficientes e fáceis de implementar em hardware real. Ao melhorar o desempenho, simplificar a implementação e expandir as capacidades do modelo, o YOLO26 se encaixa naturalmente em uma ampla gama de aplicações do mundo real. O YOLO26 estabelece uma nova base de referência para a forma como a IA de visão é construída, implementada e dimensionada. Estamos entusiasmados para ver como a comunidade irá utilizá-lo para lançar sistemas de visão computacional no mundo real.

Junte-se à nossa crescente comunidade e explore o nosso repositório GitHub para obter recursos práticos de IA. Para construir com o Vision AI hoje, explore as nossas opções de licenciamento. Saiba como a IA na agricultura está a transformar a agricultura e como a IA da Vision AI na robótica está a moldar o futuro visitando as nossas páginas de soluções.

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente