Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Principais destaques da Ultralytics sobre o YOLO Vision 2025!

Junte-se a nós para uma recapitulação do maior evento do ano da Ultralytics, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.

A comunidade de IA e de visão computacional reuniu-se a 25 de setembro para o YOLO Vision 2025 (YV25), o evento anual de IA de visão híbrida Ultralytics. Realizado em Londres, no The Pelligon, e transmitido para todo o mundo, o evento acolheu um grupo diversificado de investigadores, engenheiros e entusiastas da IA para partilhar ideias e conhecer novas inovações, como o Ultralytics YOLO26.

Em seu quarto ano, o evento continua a crescer em alcance e impacto. A transmissão ao vivo do YV25 já capturou mais de 6.800 visualizações, gerou mais de 49.000 impressões e acumulou quase 2.000 horas de tempo de exibição.

O YV25 começou com uma nota de abertura do nosso anfitrião Oisin Lunny, que deu o tom para o dia, incentivando os participantes a se conectarem, compartilharem e aproveitarem ao máximo o evento. Como ele disse, "YOLO Vision 2025 é a conferência que une a comunidade de IA de visão de código aberto para se concentrar em dados, aprendizado de máquina e avanços de visão computacional".

Neste artigo, vamos recapitular os principais destaques do YOLO Vision 2025, incluindo o lançamento do produto, palestras, um painel, demonstrações ao vivo e os momentos da comunidade que tornaram o dia especial. Vamos começar!

Passar de uma única GPU para um financiamento de 30 milhões de dólares da Série A

Antes do evento, havia muita expectativa em torno do lançamento do novo produto, e Glenn Jocher, nosso fundador e CEO, começou o dia aproveitando essa energia. 

Partilhou o percurso da Ultralytics, recordando como, em 2020, estava a fazer experiências com uma única 1080 Ti ligada ao seu MacBook, uma configuração que hoje é obsoleta. Desde esse início modesto, Ultralytics cresceu e tornou-se numa comunidade global com milhares de milhões de inferências diárias alimentadas por modelos YOLO .

Glenn também falou sobre o facto de Ultralytics ter fechado recentemente uma ronda de financiamento da Série A de 30 milhões de dólares. Explicou como este investimento irá impulsionar a próxima fase de crescimento, permitindo à empresa dimensionar a equipa, expandir a investigação e assegurar os recursos informáticos necessários para continuar a alargar os limites da visão computacional. 

Ultralytics YOLO26: Um modelo YOLO melhor, mais rápido e mais pequeno

Glenn anunciou ainda duas novas iniciativas da Ultralytics. O primeiro é o Ultralytics YOLO26, o mais recente modelo da família Ultralytics YOLO , concebido para ser mais pequeno, mais rápido e mais eficiente, ao mesmo tempo que atinge uma precisão ainda maior. O segundo é a Ultralytics Platform, um novo espaço de trabalho SaaS de ponta a ponta que combina dados, treinamento, implantação e monitoramento para tornar a criação de soluções de visão computacional mais fácil do que nunca, que deve ser anunciada em um futuro próximo.

Fig. 1. Glenn Jocher anuncia o Ultralytics YOLO26 no palco do YOLO Vision 2025.

O YOLO26 foi construído para impulsionar o desempenho, mantendo-se prático para o uso no mundo real. A menor versão já é executada até 43% mais rápido em CPUs, ao mesmo tempo em que melhora a precisão, tornando-o ideal para aplicações desde dispositivos móveis até grandes sistemas corporativos. O YOLO26 estará disponível publicamente até o final de outubro.

Aqui está um vislumbre dos principais recursos do YOLO26:

  • Arquitetura otimizada: O módulo Distribution Focal Loss (DFL) foi removido, o que antes tornava os modelos mais lentos. O YOLO26 agora é executado de forma mais eficiente sem sacrificar a precisão.
  • Previsões mais rápidas: O YOLO26 introduz uma opção para saltar o passo de Supressão Não MáximaNMS), permitindo-lhe fornecer resultados mais rapidamente e facilitando a implementação em tempo real.
  • Melhor na detecção de objetos pequenos: Novos métodos de treinamento melhoram a estabilidade e aumentam significativamente a precisão, especialmente ao detectar pequenos detalhes em cenas complexas.
  • Treinamento mais inteligente: O novo otimizador MuSGD combina os pontos fortes de duas técnicas de treinamento, ajudando o modelo a aprender mais rápido e alcançar maior precisão.

Um primeiro olhar sobre a plataforma Ultralytics

Depois de apresentar o YOLO26, Glenn convidou Prateek Bhatnagar, o nosso Diretor de Engenharia de Produtos, para fazer uma demonstração do próximo projeto no horizonte, a Plataforma Ultralytics . Criada para simplificar todo o fluxo de trabalho de visão computacional, a plataforma tem como objetivo reunir conjuntos de dados, anotação, formação, implementação e monitorização num único local.

Prateek comparou isso a ajustar um carro: em vez de visitar diferentes oficinas para pneus, motores e transmissões, tudo acontece em uma única garagem. Da mesma forma, a plataforma oferece aos desenvolvedores um espaço de trabalho integrado para gerenciar todo o ciclo de vida de um modelo de visão de IA.

A demonstração apresentou ferramentas de anotação assistida por IA que aceleram a preparação do conjunto de dados, opções de treino personalizáveis para especialistas e iniciantes e monitorização em tempo real das execuções de treino. 

Insights de um painel de discussão sobre implementação edge

Outro destaque do YV25 foi um painel sobre implantação de borda, moderado por Oisin Lunny. A sessão contou com Yuki Tsuji da Sony Semiconductor Solutions, David Plowman da Raspberry Pi e Glenn Jocher. 

A discussão explorou como mover a IA para a borda reduz a latência, diminui os custos e melhora a privacidade. Yuki apresentou o sensor IMX500 da Sony, que pode executar a inferência diretamente no chip. Enquanto isso, David falou sobre como o Raspberry Pi está se expandindo de suas raízes de fabricante para aplicações comerciais de grande escala.

Fig. 2. Um painel sobre implantação edge com Oisin Lunny, Yuki Tsuji, David Plowman e Glenn Jocher.

O painel também abordou um dos maiores obstáculos para os programadores: conseguir que os modelos funcionem sem problemas em diferentes dispositivos. É aqui que o pacoteUltralytics Python desempenha um papel fundamental. 

Com a sua vasta gama de opções de exportação, simplifica a passagem de um modelo treinado para a produção em dispositivos móveis, sistemas incorporados ou hardware empresarial. Ao eliminar as dificuldades da conversão de modelos, Ultralytics ajuda as equipas a concentrarem-se na criação de soluções em vez de se preocuparem com questões de compatibilidade.

Como David explicou, "Sei por experiência própria que a conversão de modelos é horrível, e se alguém fizer isso por mim, a vida fica muito mais fácil. É aí que Ultralytics está realmente a melhorar a história e a oferecer algo que é valioso para os nossos utilizadores." 

Acelerando a inovação e o hardware de IA

Os avanços do software de IA estão a acontecer em paralelo com o hardware e, em conjunto, estão a impulsionar uma nova vaga de inovação na visão por computador. Embora modelos como o Ultralytics YOLO continuem a fazer avançar a precisão, o seu impacto no mundo real também depende das plataformas em que são executados.

Por exemplo, a Seeed Studio mostrou como o hardware modular e de baixo custo, como as suas placas reCamera e XIAO, pré-carregadas com os modelos Ultralytics YOLO , facilita aos programadores a passagem da prototipagem para sistemas de IA do mundo real. Este tipo de integração hardware-software reduz a barreira à entrada e mostra como a inovação ao nível do hardware acelera diretamente a adoção.

Aqui estão algumas conclusões importantes de outros discursos principais do YV25 que enfatizaram como o codesign hardware-software está desbloqueando novas possibilidades:

  • A quantização permite grandes ganhos de velocidade: Intel mostrou como a conversão de modelos Ultralytics YOLO para OpenVINO com quantização aumentou a inferência de 54 FPS para 606 FPS em apenas 30 minutos, destacando o poder da otimização.
  • Ferramentas de pilha completa tornam a implantação de AI de borda prática: NVIDIA destacou como os dispositivos Jetson, TensorRT, Triton Inference Server e o DeepStream SDK trabalham juntos para simplificar a implantação de AI de visão de alto desempenho na borda.
  • Ecossistemas abertos aceleram a prototipagem: A AMD enfatizou sua plataforma de ponta a ponta construída em GPUs e na pilha de software ROCm, ajudando os desenvolvedores a passar rapidamente do protótipo à implantação, controlando os custos.
  • Chips de baixo consumo expandem a IA para dispositivos restritos: A DEEPX apresentou seus processadores DX-M1 e DX-M2, fornecendo dezenas de TOPS com menos de 5 watts para permitir a inferência avançada em sistemas compactos e com energia limitada.

Tendências recentes em visão computacional

Com os avanços em software e hardware trabalhando em conjunto, a visão computacional está evoluindo mais rápido do que nunca. Esses desenvolvimentos paralelos não estão apenas melhorando a precisão e a velocidade, mas também moldando como a visão de IA pode ser implementada no mundo real. Na YV25, os participantes tiveram a oportunidade de ouvir especialistas em robótica, implementação de borda e IA multimodal, cada um oferecendo uma perspectiva diferente sobre para onde o campo está indo.

Por exemplo, na sua apresentação, Michael Hart da D-Robotics demonstrou como o emparelhamento dos modelos Ultralytics YOLO com a sua placa compacta RDK X5 (um pequeno módulo de visão de IA incorporado) permite que os robôs executem modelos de visão avançados em tempo real. A sua demonstração ao vivo mostrou até onde chegou a robótica, evoluindo de experiências de laboratório para sistemas práticos alimentados por IA.

Fig. 3. Michael Hart destacou como os robôs habilitados por IA de hoje dependem da visão computacional.

Da mesma forma, Alexis Crowell e Steven Hunsche da Axelera AI enfatizaram os desafios e oportunidades de implementar a IA de visão na borda. Através de demonstrações ao vivo, eles explicaram como as Unidades de Processamento de IA (AIPUs) Metis da Axelera AI combinam RISC-V e computação digital na memória para oferecer alto desempenho com muito baixa potência. Embalada em formatos familiares como M.2 e PCIe, o co-design hardware-software da plataforma torna o dimensionamento da IA de borda prático e eficiente.

Noutra sessão, Merve Noyan, da Hugging Face explorou a ascensão da IA multimodal, em que os modelos combinam a visão com texto, áudio e outros dados. Falou de casos de utilização que vão desde a análise de documentos a agentes incorporados, salientando a forma como a inovação de código aberto está a acelerar a adoção da IA.

Equilibrando o progresso técnico com os valores humanos

Embora o YV25 tenha apresentado palestras inspiradoras de grande porte, ele também incluiu sessões profundamente práticas. Jiri Borovec, da Lightning AI, deu um passo a passo prático mostrando como treinar e ajustar os modelos Ultralytics YOLO com PyTorch Lightning e suporte GPU . 

Ele apresentou exemplos de código e destacou como ferramentas de código aberto, documentação clara e estruturas flexíveis facilitam para os desenvolvedores escalar o treinamento, validar cada etapa e adaptar os fluxos de trabalho aos seus próprios projetos. Foi um lembrete de quão importantes são a comunidade e as ferramentas acessíveis para o progresso real na visão computacional.

No outro extremo do espectro, os oradores exortaram o público a pensar sobre o papel mais amplo da IA na sociedade. Em seu discurso de abertura, Gerd Leonhard, futurista, humanista e CEO da The Futures Agency, argumentou que “a tecnologia é moralmente neutra até que a usemos”, enfatizando que a verdadeira questão não é apenas o que a IA pode fazer, mas o que ela deve fazer. Ele alertou contra cair em armadilhas como o reducionismo e a falta de verdade, e apelou para uma IA que realmente sirva os interesses de longo prazo da humanidade.

Fig 4. Gerd Leonhard compartilhando suas ideias sobre a construção de soluções de IA, mantendo-as centradas no ser humano.

Esse foco na responsabilidade continuou em um bate-papo informal com Carissa Véliz da Universidade de Oxford, que enfatizou a privacidade e a segurança. Ela apontou que as comunidades de código aberto são vitais para verificar e aprimorar o código, e que a ética e o design são inseparáveis. Sua mensagem foi clara: os desenvolvedores precisam antecipar o uso indevido e construir sistemas que priorizem a dignidade humana e o bem-estar social.

Networking em Londres no YV25

Indo além das palestras e demonstrações, o YV25 também criou espaço para as pessoas se conectarem. Durante os intervalos para café e almoço, os participantes se misturaram, compartilharam experiências, compararam abordagens e iniciaram novas colaborações.

Para a equipaUltralytics , foi também uma excelente oportunidade para se encontrarem pessoalmente. Com membros espalhados por todo o mundo, momentos como este ajudam a reforçar as ligações e a celebrar o progresso em conjunto.

Fig. 5. A equipa Ultralytics a encerrar um dia inspirador no YOLO Vision 2025.

O dia terminou com uma festa, onde os participantes tiveram a oportunidade de relaxar e continuar a fazer networking. Foi um momento para refletir, recarregar energias e olhar para o próximo capítulo da inovação em Vision AI.

Expandindo os limites da Visão de IA juntos

YOLO Vision 2025 foi uma celebração de ideias, inovação e comunidade. O lançamento do Ultralytics YOLO26 preparou o palco, seguido de conversas interessantes sobre a implantação de ponta e a IA centrada no ser humano, que destacaram o rápido progresso da Vision AI e o seu crescente impacto no mundo.

Para além das sessões de apresentação, o evento juntou pessoas. Investigadores, programadores e entusiastas partilharam experiências, iniciaram conversas significativas e exploraram novas possibilidades para o futuro. O evento terminou com uma nota alta, com os participantes entusiasmados com o futuro dos modelos Ultralytics YOLO e da visão computacional.

Pronto para explorar a IA? Junte-se à nossa comunidade e ao repositório GitHub para saber mais sobre IA e visão computacional. Visite nossas páginas de soluções para explorar mais aplicações de visão computacional na agricultura e IA na robótica. Consulte nossas opções de licenciamento e comece hoje mesmo com a visão computacional!

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente