Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Junte-se a nós para uma recapitulação do maior evento do ano da Ultralytics, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.
A comunidade de IA e de visão computacional reuniu-se a 25 de setembro para o YOLO Vision 2025 (YV25), o evento anual de IA de visão híbrida da Ultralytics. Realizado em Londres, no The Pelligon, e transmitido para todo o mundo, o evento acolheu um grupo diversificado de investigadores, engenheiros e entusiastas da IA para partilhar ideias e conhecer novas inovações, como o Ultralytics YOLO26.
Ao marcar o seu quarto ano, o evento continuou a crescer em termos de alcance e impacto. A transmissão em direto do YV25 já captou mais de 6 800 visualizações, gerou mais de 49 000 impressões e reuniu quase 2 000 horas de tempo de visualização.
O YV25 começou com uma nota de abertura do nosso anfitrião Oisin Lunny, que deu o tom para o dia, incentivando os participantes a se conectarem, compartilharem e aproveitarem ao máximo o evento. Como ele disse, "YOLO Vision 2025 é a conferência que une a comunidade de IA de visão de código aberto para se concentrar em dados, aprendizado de máquina e avanços de visão computacional".
Neste artigo, vamos recapitular os principais destaques do YOLO Vision 2025, incluindo o lançamento do produto, palestras, um painel, demonstrações ao vivo e os momentos da comunidade que tornaram o dia especial. Vamos começar!
Passar de uma única GPU para um financiamento de 30 milhões de dólares da Série A
Antes do evento, havia muito entusiasmo em torno do lançamento do novo produto, e Glenn Jocher, o nosso fundador e diretor executivo, começou o dia aproveitando essa energia.
Partilhou o percurso da Ultralytics, recordando como, em 2020, estava a fazer experiências com uma única 1080 Ti ligada ao seu MacBook, uma configuração que hoje é obsoleta. Desde esse início modesto, a Ultralytics cresceu e tornou-se numa comunidade global com milhares de milhões de inferências diárias alimentadas por modelos YOLO.
Glenn também falou sobre o facto de a Ultralytics ter fechado recentemente uma ronda de financiamento da Série A de 30 milhões de dólares. Explicou como este investimento irá impulsionar a próxima fase de crescimento, permitindo à empresa dimensionar a equipa, expandir a investigação e garantir os recursos informáticos necessários para continuar a alargar os limites da visão computacional.
Ultralytics YOLO26: Um modelo YOLO melhor, mais rápido e mais pequeno
Glenn anunciou ainda duas novas iniciativas da Ultralytics. O primeiro é o Ultralytics YOLO26, o mais recente modelo da família Ultralytics YOLO, concebido para ser mais pequeno, mais rápido e mais eficiente, ao mesmo tempo que atinge uma precisão ainda maior. O segundo é a Ultralytics Platform, um novo espaço de trabalho SaaS de ponta a ponta que combina dados, treinamento, implantação e monitoramento para tornar a criação de soluções de visão computacional mais fácil do que nunca, que deve ser anunciada em um futuro próximo.
Fig. 1. Glenn Jocher anuncia o Ultralytics YOLO26 no palco do YOLO Vision 2025.
O YOLO26 foi concebido para aumentar o desempenho, mantendo-se prático para utilização no mundo real. A versão mais pequena já funciona até 43% mais rápido em CPUs, continuando a melhorar a precisão, o que a torna ideal para aplicações desde dispositivos móveis a sistemas de grandes empresas. O YOLO26 estará disponível ao público no final de outubro.
Arquitetura simplificada: O módulo Distribution Focal Loss (DFL) foi removido, o que anteriormente tornava os modelos mais lentos. O YOLO26 agora funciona de forma mais eficiente sem sacrificar a precisão.
Previsões mais rápidas: O YOLO26 introduz uma opção para saltar o passo de Supressão Não Máxima (NMS), permitindo-lhe fornecer resultados mais rapidamente e facilitando a implementação em tempo real.
Melhor na deteção de pequenos objectos: Novos métodos de treino melhoram a estabilidade e aumentam significativamente a precisão, especialmente na deteção de pequenos detalhes em cenas complexas.
Treinamento mais inteligente: O novo optimizador MuSGD combina os pontos fortes de duas técnicas de formação, ajudando o modelo a aprender mais rapidamente e a atingir uma maior precisão.
Um primeiro olhar sobre a plataforma Ultralytics
Depois de apresentar o YOLO26, Glenn convidou Prateek Bhatnagar, o nosso Diretor de Engenharia de Produtos, para fazer uma demonstração do próximo projeto no horizonte, a Plataforma Ultralytics. Criada para simplificar todo o fluxo de trabalho de visão computacional, a plataforma tem como objetivo reunir conjuntos de dados, anotação, formação, implementação e monitorização num único local.
Prateek comparou-o à afinação de um carro: em vez de visitar diferentes lojas para pneus, motores e transmissões, tudo acontece numa única garagem. Da mesma forma, a plataforma oferece aos programadores um espaço de trabalho integrado para gerir todo o ciclo de vida de um modelo de IA de visão.
A demonstração apresentou ferramentas de anotação assistida por IA que aceleram a preparação do conjunto de dados, opções de formação personalizáveis para especialistas e principiantes e monitorização em tempo real dos treinos.
Ideias de um painel de discussão sobre a implantação da periferia
Outro ponto alto do YV25 foi um painel sobre a implantação de ponta, moderado por Oisin Lunny. A sessão contou com a participação de Yuki Tsuji, da Sony Semiconductor Solutions, David Plowman, da Raspberry Pi, e Glenn Jocher.
A discussão explorou a forma como a deslocação da IA para a periferia reduz a latência, diminui os custos e melhora a privacidade. Yuki apresentou o sensor IMX500 da Sony, que pode executar a inferência diretamente no chip. Entretanto, David falou sobre a forma como o Raspberry Pi está a expandir-se das suas raízes de fabricante para aplicações comerciais em grande escala.
Figura 2. Um painel sobre a utilização de bordos com Oisin Lunny, Yuki Tsuji, David Plowman e Glenn Jocher.
O painel também abordou um dos maiores obstáculos para os programadores: conseguir que os modelos funcionem sem problemas em diferentes dispositivos. É aqui que o pacote Ultralytics Python desempenha um papel fundamental.
Com a sua vasta gama de opções de exportação, simplifica a passagem de um modelo treinado para a produção em dispositivos móveis, sistemas incorporados ou hardware empresarial. Ao eliminar o problema da conversão de modelos, o Ultralytics ajuda as equipas a concentrarem-se na criação de soluções em vez de se preocuparem com questões de compatibilidade.
Como David explicou, "Sei por experiência própria que a conversão de modelos é horrível, e se alguém fizer isso por mim, a vida fica muito mais fácil. É aí que a Ultralytics está realmente a melhorar a história e a oferecer algo que é valioso para os nossos utilizadores."
Acelerar a inovação e o hardware de IA
Os avanços do software de IA estão a acontecer em paralelo com o hardware e, juntos, estão a impulsionar uma nova onda de inovação na visão computacional. Embora modelos como o Ultralytics YOLO continuem a fazer avançar a precisão, o seu impacto no mundo real também depende das plataformas em que são executados.
Por exemplo, a Seeed Studio mostrou como o hardware modular e de baixo custo, como as suas placas reCamera e XIAO, pré-carregadas com os modelos Ultralytics YOLO, facilita aos programadores a passagem da prototipagem para sistemas de IA do mundo real. Este tipo de integração hardware-software reduz a barreira à entrada e mostra como a inovação ao nível do hardware acelera diretamente a adoção.
Aqui estão algumas das principais conclusões de outras apresentações do YV25 que enfatizaram a forma como a co-design de hardware e software está a abrir novas possibilidades:
A quantização permite grandes ganhos de velocidade: A Intel mostrou como a conversão de modelos Ultralytics YOLO para OpenVINO com quantização aumentou a inferência de 54 FPS para 606 FPS em apenas 30 minutos, destacando o poder da otimização.
Ferramentas de pilha completa tornam a implantação de AI de borda prática: a NVIDIA destacou como os dispositivos Jetson, TensorRT, Triton Inference Server e o DeepStream SDK trabalham juntos para agilizar a implantação de AI de visão de alto desempenho na borda.
Ecossistemas abertos aceleram a prototipagem: A AMD enfatizou sua plataforma de ponta a ponta baseada em GPUs e na pilha de software ROCm, ajudando os desenvolvedores a passar rapidamente do protótipo para a implantação enquanto controlam os custos.
Os chips de baixo consumo expandem a IA para dispositivos limitados: A DEEPX apresentou os seus processadores DX-M1 e DX-M2, que fornecem dezenas de TOPS com menos de 5 watts para permitir a inferência avançada em sistemas compactos e de potência limitada.
Tendências recentes na visão computacional
Com os avanços no software e no hardware a trabalharem lado a lado, a visão por computador está a evoluir mais rapidamente do que nunca. Estes desenvolvimentos paralelos não estão apenas a melhorar a precisão e a velocidade, mas também a moldar a forma como a IA de visão pode ser implementada no mundo real. No YV25, os participantes tiveram a oportunidade de ouvir especialistas em robótica, implementação de ponta e IA multimodal, cada um oferecendo uma perspetiva diferente sobre o rumo que o campo está a tomar.
Por exemplo, na sua apresentação, Michael Hart da D-Robotics demonstrou como o emparelhamento dos modelos Ultralytics YOLO com a sua placa compacta RDK X5 (um pequeno módulo de visão de IA incorporado) permite que os robôs executem modelos de visão avançados em tempo real. A sua demonstração ao vivo mostrou até onde chegou a robótica, evoluindo de experiências de laboratório para sistemas práticos alimentados por IA.
Figura 3. Michael Hart salientou a forma como os actuais robôs com IA dependem da visão por computador.
Da mesma forma, Alexis Crowell e Steven Hunsche da Axelera AI enfatizaram os desafios e oportunidades de implantar a visão de IA na borda. Por meio de demonstrações ao vivo, eles explicaram como as unidades de processamento Metis AI (AIPUs) da Axelera AI combinam RISC-V e computação digital em memória para oferecer alto desempenho com muito baixo consumo de energia. Embaladas em factores de forma familiares como M.2 e PCIe, o co-design de hardware-software da plataforma torna a IA de ponta de escala prática e eficiente.
Noutra sessão, Merve Noyan, da Hugging Face, explorou a ascensão da IA multimodal, em que os modelos combinam a visão com texto, áudio e outros dados. Falou de casos de utilização que vão desde a análise de documentos a agentes incorporados, salientando a forma como a inovação de código aberto está a acelerar a adoção da IA.
Equilíbrio entre o progresso técnico e os valores humanos
Embora o YV25 tenha apresentado palestras inspiradoras de grande porte, ele também incluiu sessões profundamente práticas. Jiri Borovec, da Lightning AI, deu um passo a passo prático mostrando como treinar e ajustar os modelos Ultralytics YOLO com PyTorch Lightning e suporte multi-GPU.
Percorreu exemplos de código e salientou a forma como as ferramentas de código aberto, a documentação clara e as estruturas flexíveis facilitam aos programadores a escalada da formação, a validação de todas as fases e a adaptação dos fluxos de trabalho aos seus próprios projectos. Foi um lembrete de como a comunidade e as ferramentas acessíveis são importantes para um verdadeiro progresso na visão computacional.
Do outro lado do espetro, os oradores exortaram o público a pensar no papel mais alargado da IA na sociedade. Na sua intervenção, Gerd Leonhard, futurista, humanista e diretor executivo da The Futures Agency, defendeu que "a tecnologia é moralmente neutra até a utilizarmos", sublinhando que a verdadeira questão não é apenas o que a IA pode fazer, mas o que deve fazer. Alertou para o facto de não se cair em armadilhas como o reducionismo e a falta de verdade, e apelou a uma IA que sirva verdadeiramente os interesses da humanidade a longo prazo.
Figura 4. Gerd Leonhard partilha as suas ideias sobre a criação de soluções de IA, mantendo-as centradas no ser humano.
Este enfoque na responsabilidade continuou numa conversa à lareira com Carissa Véliz, da Universidade de Oxford, que destacou a privacidade e a segurança. Salientou que as comunidades de código aberto são vitais para verificar e melhorar o código, e que a ética e a conceção são inseparáveis. A sua mensagem foi clara: os programadores têm de antecipar a má utilização e construir sistemas que ponham a dignidade humana e o bem-estar social em primeiro lugar.
Trabalho em rede em Londres no YV25
Indo um pouco além das palestras e demonstrações, o YV25 também criou espaço para as pessoas se relacionarem. Durante as pausas para café e o almoço, os participantes misturaram-se, partilharam experiências, compararam abordagens e criaram novas colaborações.
Para a equipa da Ultralytics, foi também uma excelente oportunidade para se encontrarem pessoalmente. Com membros espalhados por todo o mundo, momentos como este ajudam a reforçar as ligações e a celebrar o progresso em conjunto.
Fig. 5. A equipa Ultralytics a encerrar um dia inspirador no YOLO Vision 2025.
O dia terminou com uma after-party, onde os participantes tiveram a oportunidade de relaxar e continuar a trabalhar em rede. Foi um momento para refletir, recarregar energias e olhar em frente para o próximo capítulo da inovação na IA de visão.
Alargar os limites da IA de visão em conjunto
O YOLO Vision 2025 foi uma celebração de ideias, inovação e comunidade. O lançamento do Ultralytics YOLO26 preparou o palco, seguido de conversas interessantes sobre a implantação de ponta e a IA centrada no ser humano, que destacaram o rápido progresso da Vision AI e o seu crescente impacto no mundo.
Para além das sessões de apresentação, o evento juntou pessoas. Investigadores, programadores e entusiastas partilharam experiências, iniciaram conversas significativas e exploraram novas possibilidades para o futuro. O evento terminou com uma nota alta, com os participantes entusiasmados com o futuro dos modelos Ultralytics YOLO e da visão computacional.