Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Principais destaques da Ultralytics do YOLO Vision 2025!

Abirami Vina

Leitura de 5 minutos

29 de setembro de 2025

Junte-se a nós para uma recapitulação do maior evento da Ultralytics do ano, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.

A comunidade de IA e visão computacional se reuniu em 25 de setembro para o YOLO Vision 2025 (YV25), o evento anual híbrido de Visão de IA da Ultralytics. Acolhido em Londres no The Pelligon e transmitido mundialmente, o evento recebeu um grupo diversificado de pesquisadores, engenheiros e entusiastas de IA para compartilhar ideias e aprender sobre novas inovações, como o Ultralytics YOLO26.

Em seu quarto ano, o evento continua a crescer em alcance e impacto. A transmissão ao vivo do YV25 já capturou mais de 6.800 visualizações, gerou mais de 49.000 impressões e acumulou quase 2.000 horas de tempo de exibição.

O YV25 começou com uma nota de abertura do nosso anfitrião Oisin Lunny, que definiu o tom do dia incentivando os participantes a se conectarem, compartilharem e aproveitarem ao máximo o evento. Como ele disse, “YOLO Vision 2025 é a conferência que une a comunidade de IA de visão de código aberto para se concentrar em dados, aprendizado de máquina e avanços em visão computacional.”

Neste artigo, recapitularemos os principais destaques do YOLO Vision 2025, incluindo o lançamento do produto, palestras principais, um painel, demonstrações ao vivo e os momentos da comunidade que tornaram o dia especial. Vamos começar!

De uma única GPU a um financiamento Série A de US$ 30 milhões

Antes do evento, havia muita expectativa em torno do lançamento do novo produto, e Glenn Jocher, nosso fundador e CEO, começou o dia aproveitando essa energia. 

Ele compartilhou a jornada da Ultralytics, relembrando como em 2020, ele estava executando experimentos em uma única 1080 Ti conectada ao seu MacBook, uma configuração que é obsoleta hoje. Desses modestos começos, a Ultralytics cresceu e se tornou uma comunidade global com bilhões de inferências diárias alimentadas por modelos YOLO.

Glenn também mencionou que a Ultralytics fechou recentemente uma rodada de financiamento Série A de $30 milhões. Ele explicou como este investimento impulsionará a próxima fase de crescimento, permitindo que a empresa dimensione a equipe, expanda a pesquisa e garanta os recursos computacionais necessários para continuar a expandir os limites da visão computacional. 

Ultralytics YOLO26: Um modelo YOLO melhor, mais rápido e menor

Glenn anunciou também duas novas iniciativas da Ultralytics. A primeira é o Ultralytics YOLO26, o modelo mais recente da família Ultralytics YOLO, projetado para ser menor, mais rápido e mais eficiente, alcançando uma precisão ainda maior. A segunda é a Plataforma Ultralytics, um novo espaço de trabalho SaaS completo que combina dados, treinamento, implantação e monitoramento para tornar a criação de soluções de visão computacional mais fácil do que nunca, com previsão de anúncio em breve.

Fig. 1. Glenn Jocher anunciando o Ultralytics YOLO26 no palco do YOLO Vision 2025.

O YOLO26 foi construído para impulsionar o desempenho, mantendo-se prático para o uso no mundo real. A menor versão já é executada até 43% mais rápido em CPUs, ao mesmo tempo em que melhora a precisão, tornando-o ideal para aplicações desde dispositivos móveis até grandes sistemas corporativos. O YOLO26 estará disponível publicamente até o final de outubro.

Aqui está um vislumbre dos principais recursos do YOLO26:

  • Arquitetura otimizada: O módulo Distribution Focal Loss (DFL) foi removido, o que antes tornava os modelos mais lentos. O YOLO26 agora é executado de forma mais eficiente sem sacrificar a precisão.
  • Previsões mais rápidas: O YOLO26 introduz uma opção para ignorar a etapa de Supressão Não Máxima (NMS), permitindo que ele entregue resultados mais rapidamente e facilitando a implantação em tempo real.
  • Melhor na detecção de objetos pequenos: Novos métodos de treinamento melhoram a estabilidade e aumentam significativamente a precisão, especialmente ao detectar pequenos detalhes em cenas complexas.
  • Treinamento mais inteligente: O novo otimizador MuSGD combina os pontos fortes de duas técnicas de treinamento, ajudando o modelo a aprender mais rápido e alcançar maior precisão.

Uma primeira olhada na plataforma Ultralytics

Após apresentar o YOLO26, Glenn convidou Prateek Bhatnagar, nosso Head de Engenharia de Produto, para demonstrar o próximo projeto no horizonte, a Plataforma Ultralytics. Construída para simplificar todo o fluxo de trabalho de visão computacional, a plataforma visa reunir conjuntos de dados, anotação, treinamento, implantação e monitoramento em um só lugar.

Prateek comparou isso a ajustar um carro: em vez de visitar diferentes oficinas para pneus, motores e transmissões, tudo acontece em uma única garagem. Da mesma forma, a plataforma oferece aos desenvolvedores um espaço de trabalho integrado para gerenciar todo o ciclo de vida de um modelo de visão de IA.

A demonstração apresentou ferramentas de anotação assistida por IA que aceleram a preparação do conjunto de dados, opções de treino personalizáveis para especialistas e iniciantes e monitorização em tempo real das execuções de treino. 

Insights de um painel de discussão sobre implementação edge

Outro destaque do YV25 foi um painel sobre implantação de borda, moderado por Oisin Lunny. A sessão contou com Yuki Tsuji da Sony Semiconductor Solutions, David Plowman da Raspberry Pi e Glenn Jocher. 

A discussão explorou como mover a IA para a borda reduz a latência, diminui os custos e melhora a privacidade. Yuki apresentou o sensor IMX500 da Sony, que pode executar a inferência diretamente no chip. Enquanto isso, David falou sobre como o Raspberry Pi está se expandindo de suas raízes de fabricante para aplicações comerciais de grande escala.

Fig. 2. Um painel sobre implantação edge com Oisin Lunny, Yuki Tsuji, David Plowman e Glenn Jocher.

O painel também abordou um dos maiores obstáculos para os desenvolvedores: fazer com que os modelos funcionem sem problemas em diferentes dispositivos. É aqui que o pacote Ultralytics Python desempenha um papel fundamental. 

Com a sua vasta gama de opções de exportação, simplifica a transferência de um modelo treinado para produção em dispositivos móveis, sistemas embebidos ou hardware empresarial. Ao eliminar a dificuldade da conversão de modelos, a Ultralytics ajuda as equipas a concentrarem-se na criação de soluções em vez de lidarem com problemas de compatibilidade.

Como David explicou, “Sei por experiência própria que converter modelos é horrível, e se alguém fizer isso por mim, torna a vida muito mais fácil. É aí que a Ultralytics está realmente a melhorar a situação e a oferecer algo valioso para os nossos utilizadores.” 

Acelerando a inovação e o hardware de IA

Os avanços de software de IA estão acontecendo em paralelo com o hardware e, juntos, estão impulsionando uma nova onda de inovação em visão computacional. Embora modelos como o Ultralytics YOLO continuem a impulsionar a precisão, seu impacto no mundo real também depende das plataformas em que são executados.

Por exemplo, a Seeed Studio mostrou como hardware modular e de baixo custo, como as suas placas reCamera e XIAO, pré-carregadas com modelos Ultralytics YOLO, facilita aos desenvolvedores a transição da prototipagem para sistemas de IA do mundo real. Este tipo de integração hardware-software diminui a barreira de entrada e mostra como a inovação ao nível do hardware acelera diretamente a adoção.

Aqui estão algumas conclusões importantes de outros discursos principais do YV25 que enfatizaram como o codesign hardware-software está desbloqueando novas possibilidades:

  • A quantização desbloqueia grandes ganhos de velocidade: A Intel mostrou como converter modelos Ultralytics YOLO para OpenVINO com quantização aumentou a inferência de 54 FPS para 606 FPS em apenas 30 minutos, destacando o poder da otimização.
  • Ferramentas full-stack tornam a implantação de IA na borda prática: A NVIDIA destacou como os dispositivos Jetson, TensorRT, Triton Inference Server e o DeepStream SDK trabalham juntos para otimizar a implantação de visão de IA de alto desempenho na borda.
  • Ecossistemas abertos aceleram a prototipagem: A AMD enfatizou sua plataforma de ponta a ponta construída em GPUs e na pilha de software ROCm, ajudando os desenvolvedores a passar rapidamente do protótipo à implantação, controlando os custos.
  • Chips de baixo consumo expandem a IA para dispositivos restritos: A DEEPX apresentou seus processadores DX-M1 e DX-M2, fornecendo dezenas de TOPS com menos de 5 watts para permitir a inferência avançada em sistemas compactos e com energia limitada.

Tendências recentes em visão computacional

Com os avanços em software e hardware trabalhando em conjunto, a visão computacional está evoluindo mais rápido do que nunca. Esses desenvolvimentos paralelos não estão apenas melhorando a precisão e a velocidade, mas também moldando como a visão de IA pode ser implementada no mundo real. Na YV25, os participantes tiveram a oportunidade de ouvir especialistas em robótica, implementação de borda e IA multimodal, cada um oferecendo uma perspectiva diferente sobre para onde o campo está indo.

Por exemplo, em sua palestra, Michael Hart da D-Robotics demonstrou como emparelhar modelos Ultralytics YOLO com sua placa compacta RDK X5 (um pequeno módulo de visão de IA embarcado) permite que robôs executem modelos de visão avançados em tempo real. Sua demonstração ao vivo mostrou o quão longe a robótica chegou, evoluindo de experimentos de laboratório para sistemas práticos, alimentados por IA.

Fig. 3. Michael Hart destacou como os robôs habilitados por IA de hoje dependem da visão computacional.

Da mesma forma, Alexis Crowell e Steven Hunsche da Axelera AI enfatizaram os desafios e oportunidades de implementar a IA de visão na borda. Através de demonstrações ao vivo, eles explicaram como as Unidades de Processamento de IA (AIPUs) Metis da Axelera AI combinam RISC-V e computação digital na memória para oferecer alto desempenho com muito baixa potência. Embalada em formatos familiares como M.2 e PCIe, o co-design hardware-software da plataforma torna o dimensionamento da IA de borda prático e eficiente.

E em outra sessão, Merve Noyan da Hugging Face explorou a ascensão da IA multimodal, onde os modelos combinam visão com texto, áudio e outras entradas. Ela falou sobre casos de uso que vão desde a análise de documentos até agentes incorporados, enfatizando como a inovação de código aberto está acelerando a adoção da IA.

Equilibrando o progresso técnico com os valores humanos

Embora a YV25 tenha apresentado palestras inspiradoras sobre o panorama geral, também incluiu sessões profundamente práticas. Jiri Borovec da Lightning AI fez uma demonstração prática mostrando como treinar e ajustar modelos Ultralytics YOLO com PyTorch Lightning e suporte multi-GPU. 

Ele apresentou exemplos de código e destacou como ferramentas de código aberto, documentação clara e estruturas flexíveis facilitam para os desenvolvedores escalar o treinamento, validar cada etapa e adaptar os fluxos de trabalho aos seus próprios projetos. Foi um lembrete de quão importantes são a comunidade e as ferramentas acessíveis para o progresso real na visão computacional.

No outro extremo do espectro, os oradores exortaram o público a pensar sobre o papel mais amplo da IA na sociedade. Em seu discurso de abertura, Gerd Leonhard, futurista, humanista e CEO da The Futures Agency, argumentou que “a tecnologia é moralmente neutra até que a usemos”, enfatizando que a verdadeira questão não é apenas o que a IA pode fazer, mas o que ela deve fazer. Ele alertou contra cair em armadilhas como o reducionismo e a falta de verdade, e apelou para uma IA que realmente sirva os interesses de longo prazo da humanidade.

Fig 4. Gerd Leonhard compartilhando suas ideias sobre a construção de soluções de IA, mantendo-as centradas no ser humano.

Esse foco na responsabilidade continuou em um bate-papo informal com Carissa Véliz da Universidade de Oxford, que enfatizou a privacidade e a segurança. Ela apontou que as comunidades de código aberto são vitais para verificar e aprimorar o código, e que a ética e o design são inseparáveis. Sua mensagem foi clara: os desenvolvedores precisam antecipar o uso indevido e construir sistemas que priorizem a dignidade humana e o bem-estar social.

Networking em Londres no YV25

Indo além das palestras e demonstrações, o YV25 também criou espaço para as pessoas se conectarem. Durante os intervalos para café e almoço, os participantes se misturaram, compartilharam experiências, compararam abordagens e iniciaram novas colaborações.

Para a equipe da Ultralytics, também foi uma ótima oportunidade de se encontrar pessoalmente. Com membros espalhados por todo o mundo, momentos como este ajudam a fortalecer as conexões e celebrar o progresso juntos.

Fig 5. A equipe da Ultralytics encerrando um dia inspirador na YOLO Vision 2025.

O dia terminou com uma festa, onde os participantes tiveram a oportunidade de relaxar e continuar a fazer networking. Foi um momento para refletir, recarregar energias e olhar para o próximo capítulo da inovação em Vision AI.

Expandindo os limites da Visão de IA juntos

O YOLO Vision 2025 foi uma celebração de ideias, inovação e comunidade. O lançamento do Ultralytics YOLO26 preparou o terreno, seguido por palestras envolventes sobre implantação de ponta e IA centrada no ser humano, que destacaram o rápido progresso da Visão de IA e seu crescente impacto no mundo.

Além das sessões de keynote, o evento reuniu pessoas. Pesquisadores, desenvolvedores e entusiastas compartilharam experiências, provocaram conversas significativas e exploraram novas possibilidades para o futuro. O evento terminou em alta, com os participantes entusiasmados com o futuro dos modelos Ultralytics YOLO e da visão computacional.

Pronto para explorar a IA? Junte-se à nossa comunidade e ao repositório GitHub para saber mais sobre IA e visão computacional. Visite nossas páginas de soluções para explorar mais aplicações de visão computacional na agricultura e IA na robótica. Consulte nossas opções de licenciamento e comece hoje mesmo com a visão computacional!

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente