Junte-se a nós para uma recapitulação do maior evento da Ultralytics do ano, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.
Junte-se a nós para uma recapitulação do maior evento da Ultralytics do ano, apresentando o lançamento do Ultralytics YOLO26, painéis inspiradores e os principais destaques da comunidade.
A comunidade de IA e visão computacional se reuniu em 25 de setembro para o YOLO Vision 2025 (YV25), o evento anual híbrido de Visão de IA da Ultralytics. Acolhido em Londres no The Pelligon e transmitido mundialmente, o evento recebeu um grupo diversificado de pesquisadores, engenheiros e entusiastas de IA para compartilhar ideias e aprender sobre novas inovações, como o Ultralytics YOLO26.
Em seu quarto ano, o evento continua a crescer em alcance e impacto. A transmissão ao vivo do YV25 já capturou mais de 6.800 visualizações, gerou mais de 49.000 impressões e acumulou quase 2.000 horas de tempo de exibição.
O YV25 começou com uma nota de abertura do nosso anfitrião Oisin Lunny, que definiu o tom do dia incentivando os participantes a se conectarem, compartilharem e aproveitarem ao máximo o evento. Como ele disse, “YOLO Vision 2025 é a conferência que une a comunidade de IA de visão de código aberto para se concentrar em dados, aprendizado de máquina e avanços em visão computacional.”
Neste artigo, recapitularemos os principais destaques do YOLO Vision 2025, incluindo o lançamento do produto, palestras principais, um painel, demonstrações ao vivo e os momentos da comunidade que tornaram o dia especial. Vamos começar!
Antes do evento, havia muita expectativa em torno do lançamento do novo produto, e Glenn Jocher, nosso fundador e CEO, começou o dia aproveitando essa energia.
Ele compartilhou a jornada da Ultralytics, relembrando como em 2020, ele estava executando experimentos em uma única 1080 Ti conectada ao seu MacBook, uma configuração que é obsoleta hoje. Desses modestos começos, a Ultralytics cresceu e se tornou uma comunidade global com bilhões de inferências diárias alimentadas por modelos YOLO.
Glenn também mencionou que a Ultralytics fechou recentemente uma rodada de financiamento Série A de $30 milhões. Ele explicou como este investimento impulsionará a próxima fase de crescimento, permitindo que a empresa dimensione a equipe, expanda a pesquisa e garanta os recursos computacionais necessários para continuar a expandir os limites da visão computacional.
Glenn anunciou também duas novas iniciativas da Ultralytics. A primeira é o Ultralytics YOLO26, o modelo mais recente da família Ultralytics YOLO, projetado para ser menor, mais rápido e mais eficiente, alcançando uma precisão ainda maior. A segunda é a Plataforma Ultralytics, um novo espaço de trabalho SaaS completo que combina dados, treinamento, implantação e monitoramento para tornar a criação de soluções de visão computacional mais fácil do que nunca, com previsão de anúncio em breve.

O YOLO26 foi construído para impulsionar o desempenho, mantendo-se prático para o uso no mundo real. A menor versão já é executada até 43% mais rápido em CPUs, ao mesmo tempo em que melhora a precisão, tornando-o ideal para aplicações desde dispositivos móveis até grandes sistemas corporativos. O YOLO26 estará disponível publicamente até o final de outubro.
Aqui está um vislumbre dos principais recursos do YOLO26:
Após apresentar o YOLO26, Glenn convidou Prateek Bhatnagar, nosso Head de Engenharia de Produto, para demonstrar o próximo projeto no horizonte, a Plataforma Ultralytics. Construída para simplificar todo o fluxo de trabalho de visão computacional, a plataforma visa reunir conjuntos de dados, anotação, treinamento, implantação e monitoramento em um só lugar.
Prateek comparou isso a ajustar um carro: em vez de visitar diferentes oficinas para pneus, motores e transmissões, tudo acontece em uma única garagem. Da mesma forma, a plataforma oferece aos desenvolvedores um espaço de trabalho integrado para gerenciar todo o ciclo de vida de um modelo de visão de IA.
A demonstração apresentou ferramentas de anotação assistida por IA que aceleram a preparação do conjunto de dados, opções de treino personalizáveis para especialistas e iniciantes e monitorização em tempo real das execuções de treino.
Outro destaque do YV25 foi um painel sobre implantação de borda, moderado por Oisin Lunny. A sessão contou com Yuki Tsuji da Sony Semiconductor Solutions, David Plowman da Raspberry Pi e Glenn Jocher.
A discussão explorou como mover a IA para a borda reduz a latência, diminui os custos e melhora a privacidade. Yuki apresentou o sensor IMX500 da Sony, que pode executar a inferência diretamente no chip. Enquanto isso, David falou sobre como o Raspberry Pi está se expandindo de suas raízes de fabricante para aplicações comerciais de grande escala.

O painel também abordou um dos maiores obstáculos para os desenvolvedores: fazer com que os modelos funcionem sem problemas em diferentes dispositivos. É aqui que o pacote Ultralytics Python desempenha um papel fundamental.
Com a sua vasta gama de opções de exportação, simplifica a transferência de um modelo treinado para produção em dispositivos móveis, sistemas embebidos ou hardware empresarial. Ao eliminar a dificuldade da conversão de modelos, a Ultralytics ajuda as equipas a concentrarem-se na criação de soluções em vez de lidarem com problemas de compatibilidade.
Como David explicou, “Sei por experiência própria que converter modelos é horrível, e se alguém fizer isso por mim, torna a vida muito mais fácil. É aí que a Ultralytics está realmente a melhorar a situação e a oferecer algo valioso para os nossos utilizadores.”
Os avanços de software de IA estão acontecendo em paralelo com o hardware e, juntos, estão impulsionando uma nova onda de inovação em visão computacional. Embora modelos como o Ultralytics YOLO continuem a impulsionar a precisão, seu impacto no mundo real também depende das plataformas em que são executados.
Por exemplo, a Seeed Studio mostrou como hardware modular e de baixo custo, como as suas placas reCamera e XIAO, pré-carregadas com modelos Ultralytics YOLO, facilita aos desenvolvedores a transição da prototipagem para sistemas de IA do mundo real. Este tipo de integração hardware-software diminui a barreira de entrada e mostra como a inovação ao nível do hardware acelera diretamente a adoção.
Aqui estão algumas conclusões importantes de outros discursos principais do YV25 que enfatizaram como o codesign hardware-software está desbloqueando novas possibilidades:
Com os avanços em software e hardware trabalhando em conjunto, a visão computacional está evoluindo mais rápido do que nunca. Esses desenvolvimentos paralelos não estão apenas melhorando a precisão e a velocidade, mas também moldando como a visão de IA pode ser implementada no mundo real. Na YV25, os participantes tiveram a oportunidade de ouvir especialistas em robótica, implementação de borda e IA multimodal, cada um oferecendo uma perspectiva diferente sobre para onde o campo está indo.
Por exemplo, em sua palestra, Michael Hart da D-Robotics demonstrou como emparelhar modelos Ultralytics YOLO com sua placa compacta RDK X5 (um pequeno módulo de visão de IA embarcado) permite que robôs executem modelos de visão avançados em tempo real. Sua demonstração ao vivo mostrou o quão longe a robótica chegou, evoluindo de experimentos de laboratório para sistemas práticos, alimentados por IA.

Da mesma forma, Alexis Crowell e Steven Hunsche da Axelera AI enfatizaram os desafios e oportunidades de implementar a IA de visão na borda. Através de demonstrações ao vivo, eles explicaram como as Unidades de Processamento de IA (AIPUs) Metis da Axelera AI combinam RISC-V e computação digital na memória para oferecer alto desempenho com muito baixa potência. Embalada em formatos familiares como M.2 e PCIe, o co-design hardware-software da plataforma torna o dimensionamento da IA de borda prático e eficiente.
E em outra sessão, Merve Noyan da Hugging Face explorou a ascensão da IA multimodal, onde os modelos combinam visão com texto, áudio e outras entradas. Ela falou sobre casos de uso que vão desde a análise de documentos até agentes incorporados, enfatizando como a inovação de código aberto está acelerando a adoção da IA.
Embora a YV25 tenha apresentado palestras inspiradoras sobre o panorama geral, também incluiu sessões profundamente práticas. Jiri Borovec da Lightning AI fez uma demonstração prática mostrando como treinar e ajustar modelos Ultralytics YOLO com PyTorch Lightning e suporte multi-GPU.
Ele apresentou exemplos de código e destacou como ferramentas de código aberto, documentação clara e estruturas flexíveis facilitam para os desenvolvedores escalar o treinamento, validar cada etapa e adaptar os fluxos de trabalho aos seus próprios projetos. Foi um lembrete de quão importantes são a comunidade e as ferramentas acessíveis para o progresso real na visão computacional.
No outro extremo do espectro, os oradores exortaram o público a pensar sobre o papel mais amplo da IA na sociedade. Em seu discurso de abertura, Gerd Leonhard, futurista, humanista e CEO da The Futures Agency, argumentou que “a tecnologia é moralmente neutra até que a usemos”, enfatizando que a verdadeira questão não é apenas o que a IA pode fazer, mas o que ela deve fazer. Ele alertou contra cair em armadilhas como o reducionismo e a falta de verdade, e apelou para uma IA que realmente sirva os interesses de longo prazo da humanidade.

Esse foco na responsabilidade continuou em um bate-papo informal com Carissa Véliz da Universidade de Oxford, que enfatizou a privacidade e a segurança. Ela apontou que as comunidades de código aberto são vitais para verificar e aprimorar o código, e que a ética e o design são inseparáveis. Sua mensagem foi clara: os desenvolvedores precisam antecipar o uso indevido e construir sistemas que priorizem a dignidade humana e o bem-estar social.
Indo além das palestras e demonstrações, o YV25 também criou espaço para as pessoas se conectarem. Durante os intervalos para café e almoço, os participantes se misturaram, compartilharam experiências, compararam abordagens e iniciaram novas colaborações.
Para a equipe da Ultralytics, também foi uma ótima oportunidade de se encontrar pessoalmente. Com membros espalhados por todo o mundo, momentos como este ajudam a fortalecer as conexões e celebrar o progresso juntos.

O dia terminou com uma festa, onde os participantes tiveram a oportunidade de relaxar e continuar a fazer networking. Foi um momento para refletir, recarregar energias e olhar para o próximo capítulo da inovação em Vision AI.
O YOLO Vision 2025 foi uma celebração de ideias, inovação e comunidade. O lançamento do Ultralytics YOLO26 preparou o terreno, seguido por palestras envolventes sobre implantação de ponta e IA centrada no ser humano, que destacaram o rápido progresso da Visão de IA e seu crescente impacto no mundo.
Além das sessões de keynote, o evento reuniu pessoas. Pesquisadores, desenvolvedores e entusiastas compartilharam experiências, provocaram conversas significativas e exploraram novas possibilidades para o futuro. O evento terminou em alta, com os participantes entusiasmados com o futuro dos modelos Ultralytics YOLO e da visão computacional.
Pronto para explorar a IA? Junte-se à nossa comunidade e ao repositório GitHub para saber mais sobre IA e visão computacional. Visite nossas páginas de soluções para explorar mais aplicações de visão computacional na agricultura e IA na robótica. Consulte nossas opções de licenciamento e comece hoje mesmo com a visão computacional!