Principais destaques da Ultralytics sobre o YOLO Vision 2025!
Junte-se a nós para uma recapitulação do maior evento do ano da Ultralytics, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.
Junte-se a nós para uma recapitulação do maior evento do ano da Ultralytics, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.
A comunidade de IA e de visão computacional reuniu-se a 25 de setembro para o YOLO Vision 2025 (YV25), o evento anual de IA de visão híbrida Ultralytics. Realizado em Londres, no The Pelligon, e transmitido para todo o mundo, o evento acolheu um grupo diversificado de investigadores, engenheiros e entusiastas da IA para partilhar ideias e conhecer novas inovações, como o Ultralytics YOLO26.
Em seu quarto ano, o evento continua a crescer em alcance e impacto. A transmissão ao vivo do YV25 já capturou mais de 6.800 visualizações, gerou mais de 49.000 impressões e acumulou quase 2.000 horas de tempo de exibição.
O YV25 começou com uma nota de abertura do nosso anfitrião Oisin Lunny, que deu o tom para o dia, incentivando os participantes a se conectarem, compartilharem e aproveitarem ao máximo o evento. Como ele disse, "YOLO Vision 2025 é a conferência que une a comunidade de IA de visão de código aberto para se concentrar em dados, aprendizado de máquina e avanços de visão computacional".
Neste artigo, vamos recapitular os principais destaques do YOLO Vision 2025, incluindo o lançamento do produto, palestras, um painel, demonstrações ao vivo e os momentos da comunidade que tornaram o dia especial. Vamos começar!
Antes do evento, havia muita expectativa em torno do lançamento do novo produto, e Glenn Jocher, nosso fundador e CEO, começou o dia aproveitando essa energia.
Partilhou o percurso da Ultralytics, recordando como, em 2020, estava a fazer experiências com uma única 1080 Ti ligada ao seu MacBook, uma configuração que hoje é obsoleta. Desde esse início modesto, Ultralytics cresceu e tornou-se numa comunidade global com milhares de milhões de inferências diárias alimentadas por modelos YOLO .
Glenn também falou sobre o facto de Ultralytics ter fechado recentemente uma ronda de financiamento da Série A de 30 milhões de dólares. Explicou como este investimento irá impulsionar a próxima fase de crescimento, permitindo à empresa dimensionar a equipa, expandir a investigação e assegurar os recursos informáticos necessários para continuar a alargar os limites da visão computacional.
Glenn anunciou ainda duas novas iniciativas da Ultralytics. O primeiro é o Ultralytics YOLO26, o mais recente modelo da família Ultralytics YOLO , concebido para ser mais pequeno, mais rápido e mais eficiente, ao mesmo tempo que atinge uma precisão ainda maior. O segundo é a Ultralytics Platform, um novo espaço de trabalho SaaS de ponta a ponta que combina dados, treinamento, implantação e monitoramento para tornar a criação de soluções de visão computacional mais fácil do que nunca, que deve ser anunciada em um futuro próximo.

O YOLO26 foi construído para impulsionar o desempenho, mantendo-se prático para o uso no mundo real. A menor versão já é executada até 43% mais rápido em CPUs, ao mesmo tempo em que melhora a precisão, tornando-o ideal para aplicações desde dispositivos móveis até grandes sistemas corporativos. O YOLO26 estará disponível publicamente até o final de outubro.
Aqui está um vislumbre dos principais recursos do YOLO26:
Depois de apresentar o YOLO26, Glenn convidou Prateek Bhatnagar, o nosso Diretor de Engenharia de Produtos, para fazer uma demonstração do próximo projeto no horizonte, a Plataforma Ultralytics . Criada para simplificar todo o fluxo de trabalho de visão computacional, a plataforma tem como objetivo reunir conjuntos de dados, anotação, formação, implementação e monitorização num único local.
Prateek comparou isso a ajustar um carro: em vez de visitar diferentes oficinas para pneus, motores e transmissões, tudo acontece em uma única garagem. Da mesma forma, a plataforma oferece aos desenvolvedores um espaço de trabalho integrado para gerenciar todo o ciclo de vida de um modelo de visão de IA.
A demonstração apresentou ferramentas de anotação assistida por IA que aceleram a preparação do conjunto de dados, opções de treino personalizáveis para especialistas e iniciantes e monitorização em tempo real das execuções de treino.
Outro destaque do YV25 foi um painel sobre implantação de borda, moderado por Oisin Lunny. A sessão contou com Yuki Tsuji da Sony Semiconductor Solutions, David Plowman da Raspberry Pi e Glenn Jocher.
A discussão explorou como mover a IA para a borda reduz a latência, diminui os custos e melhora a privacidade. Yuki apresentou o sensor IMX500 da Sony, que pode executar a inferência diretamente no chip. Enquanto isso, David falou sobre como o Raspberry Pi está se expandindo de suas raízes de fabricante para aplicações comerciais de grande escala.

O painel também abordou um dos maiores obstáculos para os programadores: conseguir que os modelos funcionem sem problemas em diferentes dispositivos. É aqui que o pacoteUltralytics Python desempenha um papel fundamental.
Com a sua vasta gama de opções de exportação, simplifica a passagem de um modelo treinado para a produção em dispositivos móveis, sistemas incorporados ou hardware empresarial. Ao eliminar as dificuldades da conversão de modelos, Ultralytics ajuda as equipas a concentrarem-se na criação de soluções em vez de se preocuparem com questões de compatibilidade.
Como David explicou, "Sei por experiência própria que a conversão de modelos é horrível, e se alguém fizer isso por mim, a vida fica muito mais fácil. É aí que Ultralytics está realmente a melhorar a história e a oferecer algo que é valioso para os nossos utilizadores."
Os avanços do software de IA estão a acontecer em paralelo com o hardware e, em conjunto, estão a impulsionar uma nova vaga de inovação na visão por computador. Embora modelos como o Ultralytics YOLO continuem a fazer avançar a precisão, o seu impacto no mundo real também depende das plataformas em que são executados.
Por exemplo, a Seeed Studio mostrou como o hardware modular e de baixo custo, como as suas placas reCamera e XIAO, pré-carregadas com os modelos Ultralytics YOLO , facilita aos programadores a passagem da prototipagem para sistemas de IA do mundo real. Este tipo de integração hardware-software reduz a barreira à entrada e mostra como a inovação ao nível do hardware acelera diretamente a adoção.
Aqui estão algumas conclusões importantes de outros discursos principais do YV25 que enfatizaram como o codesign hardware-software está desbloqueando novas possibilidades:
Com os avanços em software e hardware trabalhando em conjunto, a visão computacional está evoluindo mais rápido do que nunca. Esses desenvolvimentos paralelos não estão apenas melhorando a precisão e a velocidade, mas também moldando como a visão de IA pode ser implementada no mundo real. Na YV25, os participantes tiveram a oportunidade de ouvir especialistas em robótica, implementação de borda e IA multimodal, cada um oferecendo uma perspectiva diferente sobre para onde o campo está indo.
Por exemplo, na sua apresentação, Michael Hart da D-Robotics demonstrou como o emparelhamento dos modelos Ultralytics YOLO com a sua placa compacta RDK X5 (um pequeno módulo de visão de IA incorporado) permite que os robôs executem modelos de visão avançados em tempo real. A sua demonstração ao vivo mostrou até onde chegou a robótica, evoluindo de experiências de laboratório para sistemas práticos alimentados por IA.

Da mesma forma, Alexis Crowell e Steven Hunsche da Axelera AI enfatizaram os desafios e oportunidades de implementar a IA de visão na borda. Através de demonstrações ao vivo, eles explicaram como as Unidades de Processamento de IA (AIPUs) Metis da Axelera AI combinam RISC-V e computação digital na memória para oferecer alto desempenho com muito baixa potência. Embalada em formatos familiares como M.2 e PCIe, o co-design hardware-software da plataforma torna o dimensionamento da IA de borda prático e eficiente.
Noutra sessão, Merve Noyan, da Hugging Face explorou a ascensão da IA multimodal, em que os modelos combinam a visão com texto, áudio e outros dados. Falou de casos de utilização que vão desde a análise de documentos a agentes incorporados, salientando a forma como a inovação de código aberto está a acelerar a adoção da IA.
Embora o YV25 tenha apresentado palestras inspiradoras de grande porte, ele também incluiu sessões profundamente práticas. Jiri Borovec, da Lightning AI, deu um passo a passo prático mostrando como treinar e ajustar os modelos Ultralytics YOLO com PyTorch Lightning e suporte GPU .
Ele apresentou exemplos de código e destacou como ferramentas de código aberto, documentação clara e estruturas flexíveis facilitam para os desenvolvedores escalar o treinamento, validar cada etapa e adaptar os fluxos de trabalho aos seus próprios projetos. Foi um lembrete de quão importantes são a comunidade e as ferramentas acessíveis para o progresso real na visão computacional.
No outro extremo do espectro, os oradores exortaram o público a pensar sobre o papel mais amplo da IA na sociedade. Em seu discurso de abertura, Gerd Leonhard, futurista, humanista e CEO da The Futures Agency, argumentou que “a tecnologia é moralmente neutra até que a usemos”, enfatizando que a verdadeira questão não é apenas o que a IA pode fazer, mas o que ela deve fazer. Ele alertou contra cair em armadilhas como o reducionismo e a falta de verdade, e apelou para uma IA que realmente sirva os interesses de longo prazo da humanidade.

Esse foco na responsabilidade continuou em um bate-papo informal com Carissa Véliz da Universidade de Oxford, que enfatizou a privacidade e a segurança. Ela apontou que as comunidades de código aberto são vitais para verificar e aprimorar o código, e que a ética e o design são inseparáveis. Sua mensagem foi clara: os desenvolvedores precisam antecipar o uso indevido e construir sistemas que priorizem a dignidade humana e o bem-estar social.
Indo além das palestras e demonstrações, o YV25 também criou espaço para as pessoas se conectarem. Durante os intervalos para café e almoço, os participantes se misturaram, compartilharam experiências, compararam abordagens e iniciaram novas colaborações.
Para a equipaUltralytics , foi também uma excelente oportunidade para se encontrarem pessoalmente. Com membros espalhados por todo o mundo, momentos como este ajudam a reforçar as ligações e a celebrar o progresso em conjunto.

O dia terminou com uma festa, onde os participantes tiveram a oportunidade de relaxar e continuar a fazer networking. Foi um momento para refletir, recarregar energias e olhar para o próximo capítulo da inovação em Vision AI.
YOLO Vision 2025 foi uma celebração de ideias, inovação e comunidade. O lançamento do Ultralytics YOLO26 preparou o palco, seguido de conversas interessantes sobre a implantação de ponta e a IA centrada no ser humano, que destacaram o rápido progresso da Vision AI e o seu crescente impacto no mundo.
Para além das sessões de apresentação, o evento juntou pessoas. Investigadores, programadores e entusiastas partilharam experiências, iniciaram conversas significativas e exploraram novas possibilidades para o futuro. O evento terminou com uma nota alta, com os participantes entusiasmados com o futuro dos modelos Ultralytics YOLO e da visão computacional.
Pronto para explorar a IA? Junte-se à nossa comunidade e ao repositório GitHub para saber mais sobre IA e visão computacional. Visite nossas páginas de soluções para explorar mais aplicações de visão computacional na agricultura e IA na robótica. Consulte nossas opções de licenciamento e comece hoje mesmo com a visão computacional!