Explore os destaques do evento anual da Ultralytics e reviva a experiência híbrida da YOLO Vision. Abordaremos o lançamento da YOLO11 da Ultralytics, painéis envolventes e muito mais.
Explore os destaques do evento anual da Ultralytics e reviva a experiência híbrida da YOLO Vision. Abordaremos o lançamento da YOLO11 da Ultralytics, painéis envolventes e muito mais.
Em 27 de setembro, a Ultralytics reuniu a comunidade de IA e visão computacional para nosso emocionante evento híbrido anual, YOLO Vision 2024 (YV24). Hospedado no Google for Startups Campus em Madri e transmitido globalmente, o evento reuniu especialistas, desenvolvedores e entusiastas para discutir os mais recentes avanços em Vision AI, como o novo modelo Ultralytics YOLO11. A transmissão ao vivo do evento já alcançou mais de 5.400 visualizações, com mais de 10.600 impressões e 469,5 horas de exibição, envolvendo inovadores em todo o mundo.
O YV24 começou com uma calorosa recepção do nosso anfitrião, Oisin Lunny, que enfatizou a importância da comunidade e da conexão, dizendo: "Eu acredito muito no poder de grandes ideias e grandes comunidades, e o que a Ultralytics criou com o YOLO Vision é exatamente isso - uma grande comunidade de grandes pessoas com grandes ideias."
Neste artigo, vamos destacar os principais pontos do YOLO Vision 2024, desde os debates envolventes até os fascinantes casos de uso da visão computacional no mundo real. Também exploraremos palestras técnicas que variam desde IA de ponta até aceleração de hardware, bem como os momentos de networking e construção de comunidade que tornaram o evento um sucesso. Se você está interessado em inovações em IA, anúncios importantes ou o futuro da Visão de IA, este resumo do evento YOLO Vision 2024 cobre todos os pontos essenciais!
O lançamento do produto que havia sido divulgado antes do YOLO Vision 2024 foi finalmente revelado com um anúncio durante a palestra inicial de Glenn Jocher, fundador e CEO da Ultralytics. Glenn apresentou o Ultralytics YOLO11, marcando a próxima geração de modelos de visão computacional, que estava em desenvolvimento há vários meses. Aumentando a empolgação do lançamento, Glenn foi entrevistado mais tarde no The Ravit Show e compartilhou insights sobre o desenvolvimento do YOLO11.
Durante sua apresentação, Glenn também compartilhou a história da jornada da empresa, começando com sua formação em física de partículas e como seu fascínio em entender o universo o levou eventualmente ao aprendizado de máquina e à visão computacional.

Ele explicou como seu trabalho inicial em física, onde os pesquisadores analisavam as interações de partículas, era semelhante à detecção de objetos em visão computacional. Sua curiosidade e vontade de trabalhar com tecnologia de ponta acabaram levando à criação do Ultralytics YOLOv5. Ao longo de sua palestra, Glenn enfatizou a importância da colaboração e da contribuição dentro da comunidade de código aberto e agradeceu aos desenvolvedores em todo o mundo que forneceram feedback e ajudaram a melhorar o YOLOv5 e o Ultralytics YOLOv8 ao longo do tempo.
Ele então apresentou os principais recursos do Ultralytics YOLO11 e explicou que ele é mais rápido, mais preciso e mais eficiente do que os modelos anteriores. Na verdade, o YOLO11m usa 22% menos parâmetros do que o YOLOv8m, mas oferece melhor precisão no conjunto de dados COCO, tornando o YOLO11 perfeito para aplicações em tempo real onde velocidade e precisão são fundamentais.
Glenn enfatizou a escala do lançamento dizendo: "Estamos lançando 30 modelos no total, 25 deles são de código aberto, com cinco tamanhos diferentes para cinco tarefas diferentes. As tarefas são classificação de imagem, detecção de objetos, segmentação de instâncias, estimativa de pose e caixas delimitadoras orientadas." No lado empresarial, ele anunciou que, no próximo mês, modelos robustos treinados em um conjunto de dados proprietário de 1 milhão de imagens estariam disponíveis. Desnecessário dizer que o anúncio deu início ao evento em grande estilo, deixando os participantes ansiosos para aprender mais sobre o potencial do YOLO11 para inovar em áreas como manufatura e carros autônomos.
As discussões em painel, moderadas por Oisin Lunny, na YOLO Vision 2024 forneceram uma variedade de insights sobre IA, visão computacional e construção de comunidade.
O primeiro painel contou com Glenn Jocher, Jing Qiu (uma figura chave no desenvolvimento de modelos YOLO na Ultralytics) e Ao Wang da Universidade de Tsinghua, que co-escreveu o YOLOv10. O painel discutiu desenvolvimentos recentes em IA generativa e visão computacional, focando em suas semelhanças, diferenças e o impacto que cada campo teve sobre o outro. Apesar da recente ascensão de grandes modelos de linguagem (LLMs), o painel observou que a visão computacional tradicional ainda é essencial para tarefas específicas em setores como o da saúde.
O próximo painel abordou os desafios que as mulheres enfrentam na liderança em IA, com as palestrantes: a Diretora de Crescimento da Ultralytics, Paula Derrenger, a ex-CPO e COO em SaaS Bruna de Guimarães, a líder do capítulo para Latinas in Tech Madrid, Mariana Hernandez, e a fundadora da Dare to Data, Christina Stathopoulous, compartilhando suas experiências, enquanto discutiam a importância da mentoria e a necessidade de as mulheres tomarem medidas proativas na busca por cargos de liderança. Hernandez aconselhou: "Seja proativa, não espere que as coisas aconteçam para você" e incentivou as mulheres na plateia a se afirmarem e buscarem ativamente oportunidades. O painel também discutiu o valor de criar ambientes de trabalho mais favoráveis.

O painel final explorou como a construção de comunidades fortes pode promover a inovação em IA. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell discutiram maneiras de interagir com o público técnico, tanto online quanto em eventos presenciais. A percepção de Farrell, "Você tem que encontrá-los onde eles estão", enfatizou a importância de se conectar com os membros da comunidade em seus próprios termos para incentivar a colaboração e o aprendizado compartilhado.

Várias palestras na YV24 revelaram como os modelos YOLO estão sendo aplicados para resolver desafios do mundo real em vários setores. Jim Griffin, apresentador do podcast AI Master Group, falou sobre um projeto que usa modelos YOLOv8 para monitorar os movimentos de tubarões ao longo da costa da Califórnia por meio de vigilância por drones. O sistema alerta salva-vidas, proprietários de lojas de surf e pais, garantindo a segurança dos banhistas, detectando tubarões a 200 pés acima do oceano. Griffin explicou que o verdadeiro desafio não era o modelo de IA em si, mas os extensos voos de drone e a coleta de dados necessários para treinar o modelo.

Da mesma forma, David Scott da The Main Branch discutiu a expansão da visão computacional da simples detecção de objetos para a análise de comportamento. Sua palestra apresentou aplicações do mundo real, como rastreamento do comportamento do gado e identificação de atividades suspeitas em lojas de varejo. Scott compartilhou como o YOLOv8 pode ser usado para monitorar a saúde do gado, analisando comportamentos específicos, como comer, beber e caminhar.
Além disso, um discurso particularmente emocionante veio de Ousman Umar da NASCO Feeding Minds, onde ele compartilhou como sua organização está mudando vidas ao fornecer educação em TI em Gana. Sua fundação estabeleceu 17 centros de TIC, treinando mais de 65.000 alunos, com o objetivo de criar empregos de tecnologia locais para ajudar a resolver problemas como a imigração ilegal. A poderosa história de Umar transmitiu como a educação e a tecnologia juntas podem impulsionar mudanças duradouras em comunidades carentes.
O YV24 também apresentou diferentes palestras focadas em como a IA e o hardware estão se unindo para gerar novas ideias. Especialistas de empresas como Intel, Sony e NVIDIA abordaram a implantação de modelos YOLO em dispositivos de borda e a otimização do desempenho. Dmitriy Pastushenkov e Adrian Boguszewski da Intel descreveram como seu hardware suporta modelos YOLO em NPU, CPU e GPU, enquanto Amir Servi e Wei Tang da Sony compartilharam como o YOLO se integra à plataforma AITRIOS para uma implantação eficiente de IA de borda. Guy Dahan da NVIDIA falou sobre o uso de sua arquitetura de GPU para melhorar a inferência do modelo YOLO.

Outras empresas como a Qualcomm, a Hugging Face e a Lightning AI também mostraram como suas plataformas facilitam a integração e a implantação de modelos YOLO para os desenvolvedores. Devang Aggarwal da Qualcomm apresentou como modelos como o YOLOv8 podem ser otimizados para dispositivos Snapdragon através do Qualcomm AI Hub.
Da mesma forma, Pavel Lakubovskii da Hugging Face descreveu como suas ferramentas de código aberto permitem a integração perfeita de modelos como o YOLOv8 em vários fluxos de trabalho, enquanto Luca Antiga da Lightning AI nos mostrou como os desenvolvedores podem facilmente incorporar modelos como o YOLOv8 no nível do código para prototipagem e iterações mais rápidas.
Na semana que antecedeu o YV24, a equipe da Ultralytics se reuniu em Madrid para uma combinação de workshops, reuniões colaborativas e atividades fora do local. Estas atividades foram além do trabalho, nutrindo relacionamentos mais fortes e criando uma atmosfera positiva antes do evento. Terminando com uma afterparty de celebração, os participantes e palestrantes tiveram a oportunidade de fazer networking, compartilhar os principais pontos e explorar futuras colaborações. A combinação de trabalho em equipe e camaradagem tornou o YV24 um sucesso profissional e uma experiência memorável em todos os sentidos.

O YV24 reuniu inovação, colaboração e um olhar sobre o futuro da visão computacional. Com o lançamento do YOLO11, painéis envolventes e discussões sobre hardware de IA e soluções de borda, o evento se concentrou em como a IA de Visão pode fazer a diferença e como a tecnologia está mudando para acompanhar os avanços na IA. Também fortaleceu as conexões dentro da comunidade. Especialistas e entusiastas compartilharam ideias e exploraram o potencial da visão computacional e do YOLO. O evento terminou com uma divertida sessão de perguntas e respostas, onde moletons da Ultralytics foram sorteados, deixando todos animados para mais inovações como o YOLO11 no futuro.
Visite nosso repositório GitHub e conecte-se com nossa comunidade próspera para saber mais sobre IA. Veja como a Vision AI está redefinindo a inovação em setores como saúde e agricultura. 🚀