Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Principais destaques da Ultralytics sobre o YOLO Vision 2024!

Abirami Vina

4 min de leitura

8 de outubro de 2024

Explore os destaques do evento anual da Ultralytics e reviva a experiência híbrida YOLO Vision. Cobriremos o lançamento do YOLO11 da Ultralytics, painéis envolventes e muito mais.

Em 27 de setembro, Ultralytics reuniu a comunidade de IA e visão computacional para o nosso emocionante evento anual híbrido l, YOLO Vision 2024 (YV24). Realizado no Google for Startups Campus em Madrid e transmitido globalmente, o evento reuniu especialistas, programadores e entusiastas para discutir os últimos avanços em IA de visão, como o novo modeloUltralytics YOLO11 . A transmissão em direto do evento já atingiu mais de 5.400 visualizações, com mais de 10.600 impressões e 469,5 horas de visualização, envolvendo inovadores de todo o mundo.

O YV24 começou com as calorosas boas-vindas do nosso anfitrião, Oisin Lunny, que enfatizou a importância da comunidade e da ligação, dizendo: "Acredito muito no poder das grandes ideias e das grandes comunidades, e o que Ultralytics criou com o YOLO Vision é exatamente isso - uma grande comunidade de grandes pessoas com grandes ideias."

Neste artigo, vamos identificar os principais destaques do YOLO Vision 2024, desde os envolventes painéis de discussão até aos fascinantes casos de utilização da visão computacional no mundo real. Também exploraremos palestras técnicas que vão desde a IA de ponta até à aceleração de hardware, bem como os momentos de criação de redes e de comunidade que tornaram o evento um sucesso. Quer esteja interessado em inovações de IA, anúncios importantes ou no futuro da Visão de IA, esta recapitulação do evento YOLO Vision 2024 abrange todos os pontos essenciais! 

Lançamento do Ultralytics YOLO11 na YOLO Vision

O lançamento do produto que tinha sido anunciado antes do YOLO Vision 2024 foi finalmente revelado com um anúncio durante a apresentação inicial por Glenn Jocher, fundador e diretor executivo da Ultralytics. Glenn apresentou Ultralytics YOLO11que marca a próxima geração de modelos de visão por computador, que estava a ser desenvolvida há vários meses. Para aumentar o entusiasmo do lançamento, Glenn foi mais tarde entrevistado no The Ravit Show e partilhou informações sobre o desenvolvimento do YOLO11.

Durante sua apresentação, Glenn também compartilhou a história da jornada da empresa, começando com sua formação em física de partículas e como seu fascínio em entender o universo o levou eventualmente ao aprendizado de máquina e à visão computacional.

__wf_reserved_inherit
Fig. 1.YOLO11 Ultralytics YOLO11 foi oficialmente anunciado por Glenn Jocher no palco do YOLO Vision 2024.

Explicou como o seu trabalho inicial em física, em que os investigadores analisavam as interações das partículas, era semelhante à deteção de objectos na visão por computador. A sua curiosidade e vontade de trabalhar em tecnologia de ponta acabaram por levar à criação da Ultralytics YOLOv5. Ao longo da sua palestra, Glenn sublinhou a importância da colaboração e da contribuição no seio da comunidade de código aberto e agradeceu aos programadores de todo o mundo que forneceram feedback e ajudaram a melhorar YOLOv5 e o Ultralytics YOLOv8 ao longo do tempo.

De seguida, apresentou as principais caraterísticas do Ultralytics YOLO11 e explicou que é mais rápido, mais preciso e mais eficiente do que os modelos anteriores. De facto, o YOLO11m utiliza menos 22% de parâmetros do que YOLOv8m , mas proporciona uma melhor precisão no conjunto de dadosCOCO , tornando YOLO11 perfeito para aplicações em tempo real em que a velocidade e a precisão são fundamentais.

Glenn sublinhou a escala do lançamento dizendo: "Estamos a lançar 30 modelos no total, 25 dos quais são de código aberto, com cinco tamanhos diferentes para cinco tarefas diferentes. As tarefas são classificação de imagens, deteção de objectos, segmentação de instâncias, estimativa de pose e caixas delimitadoras orientadas". No que respeita às empresas, anunciou que, no próximo mês, estarão disponíveis modelos robustos treinados num conjunto de dados proprietário de 1 milhão de imagens. Escusado será dizer que o anúncio deu início ao evento com uma nota alta, deixando os participantes ansiosos por saber mais sobre o potencial doYOLO11 para inovar em áreas como a produção e os carros autónomos.

Painéis de discussão na YOLO Vision: Uma conferência sobre IA

Os painéis de discussão, moderados por Oisin Lunny, no YOLO Vision 2024 proporcionaram uma série de conhecimentos sobre IA, visão computacional e construção de comunidades. 

O primeiro painel contou com a participação de Glenn Jocher, Jing Qiu (uma figura-chave no desenvolvimento de modelos YOLO na Ultralytics) e Ao Wang da Universidade de Tsinghua, coautor de YOLOv10. O painel discutiu os recentes desenvolvimentos na IA generativa e na visão por computador, centrando-se nas suas semelhanças e diferenças e no impacto que cada domínio teve no outro. Apesar da recente ascensão dos modelos de linguagem de grande dimensão (LLM), o painel salientou que a visão computacional tradicional continua a ser essencial para tarefas específicas em sectores como os cuidados de saúde

O painel seguinte abordou os desafios que as mulheres enfrentam na liderança da IA, com oradores: Paula Derrenger, diretora de crescimento da Ultralytics, Bruna de Guimarães, ex-CPO e COO em SaaS, Mariana Hernandez, líder do capítulo Latinas in Tech Madrid, e Christina Stathopoulous, fundadora da Dare to Data, compartilharam suas experiências, enquanto discutiam a importância da orientação e a necessidade de as mulheres tomarem medidas proativas na busca de papéis de liderança. Hernandez aconselhou: "Sejam proactivas, não esperem que as coisas aconteçam por vocês", e encorajou as mulheres na audiência a afirmarem-se e a procurarem ativamente oportunidades. O painel também discutiu o valor da criação de ambientes de trabalho mais favoráveis.

__wf_reserved_inherit
Fig 2. Um painel sobre mulheres na tecnologia, da esquerda para a direita: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, com Bruna de Guimarães participando remotamente.

O painel final explorou como a construção de comunidades fortes pode promover a inovação em IA. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell discutiram maneiras de interagir com o público técnico, tanto online quanto em eventos presenciais. A percepção de Farrell, "Você tem que encontrá-los onde eles estão", enfatizou a importância de se conectar com os membros da comunidade em seus próprios termos para incentivar a colaboração e o aprendizado compartilhado.

__wf_reserved_inherit
Fig 3. Um painel sobre a construção de comunidades, da esquerda para a direita: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell e Oisin Lunny.

Exemplos reais de inovações de IA na YOLO Vision

Várias palestras no YV24 esclareceram como os modelos YOLO estão a ser aplicados para resolver desafios do mundo real em vários sectores. Jim Griffin, anfitrião do podcast AI Master Group, falou sobre um projeto que utiliza modelosYOLOv8 para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia através da vigilância por drones. O sistema alerta os nadadores-salvadores, os proprietários de lojas de surf e os pais, garantindo a segurança dos banhistas ao detetar tubarões a 200 pés acima do oceano. Griffin explicou que o verdadeiro desafio não era o modelo de IA em si, mas os voos extensos de drones e a recolha de dados necessários para treinar o modelo.

__wf_reserved_inherit
Fig. 4. Jim Griffin partilhou como YOLOv8 estava a ser utilizado para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia utilizando drones.

Da mesma forma, David Scott, do The Main Branch, discutiu a expansão da visão por computador, desde a simples deteção de objectos até à análise de comportamentos. A sua palestra apresentou aplicações do mundo real, como o acompanhamento do comportamento do gado e a identificação de actividades suspeitas em lojas de retalho. Scott partilhou como YOLOv8 pode ser utilizado para monitorizar a saúde do gado através da análise de comportamentos específicos, como comer, beber e andar.

Além disso, um discurso particularmente emocionante veio de Ousman Umar da NASCO Feeding Minds, onde ele compartilhou como sua organização está mudando vidas ao fornecer educação em TI em Gana. Sua fundação estabeleceu 17 centros de TIC, treinando mais de 65.000 alunos, com o objetivo de criar empregos de tecnologia locais para ajudar a resolver problemas como a imigração ilegal. A poderosa história de Umar transmitiu como a educação e a tecnologia juntas podem impulsionar mudanças duradouras em comunidades carentes.

Conversas sobre tecnologia: Destaques dos oradores YOLO Vision

O YV24 também apresentou diferentes palestras centradas na forma como a IA e o hardware se estão a unir para gerar novas ideias. Especialistas de empresas como a IntelSony, e NVIDIA abordaram a implementação de modelos YOLO em dispositivos de ponta e a otimização do desempenho. Dmitriy Pastushenkov e Adrian Boguszewski da Intel descreveram como o seu hardware suporta modelos YOLO em NPU, CPU e GPU, enquanto Amir Servi e Wei Tang da Sony partilharam como YOLO se integra na plataforma AITRIOS para uma implementação eficiente de IA de ponta. Guy Dahan, da NVIDIA , falou sobre o uso de sua arquitetura GPU para melhorar a inferência do modelo YOLO . 

__wf_reserved_inherit
Fig. 5. Guy Dahan a falar sobre a otimização da inferência do modelo YOLO utilizando a arquitetura GPU da NVIDIA.

Outras empresas como a Qualcomm, Hugging Facee Lightning AItambém mostraram como suas plataformas facilitam a integração e a implantação de modelos YOLO pelos desenvolvedores. Devang Aggarwal, da Qualcomm, apresentou como modelos como o YOLOv8 podem ser otimizados para dispositivos Snapdragon por meio do Qualcomm AI Hub.

Da mesma forma, Pavel Lakubovskii, da Hugging Face descreveu como as suas ferramentas de código aberto permitem uma integração perfeita de modelos como o YOLOv8 em vários fluxos de trabalho, enquanto Luca Antiga, da Lightning AI, nos mostrou como os programadores podem incorporar facilmente modelos como o YOLOv8 ao nível do código para uma prototipagem e iterações mais rápidas.

Uma semana em Madrid: sessões de networking YOLO Vision

Na semana que antecedeu o YV24, a equipa Ultralytics reuniu-se em Madrid para uma mistura de workshops, reuniões de colaboração e actividades fora das instalações. Estas actividades foram além do trabalho, fomentando relações mais fortes e criando uma atmosfera positiva antes do evento. Terminando com uma festa comemorativa, os participantes e os oradores tiveram a oportunidade de estabelecer contactos, partilhar as principais conclusões e explorar futuras colaborações. A combinação de trabalho de equipa e camaradagem fez do YV24 um sucesso profissional e uma experiência memorável.

__wf_reserved_inherit
Fig. 6. A equipa Ultralytics a celebrar um dia fantástico no YOLO Vision 2024.

Inovações de IA YOLO Vision e o que está para vir

O YV24 reuniu inovação, colaboração e um olhar sobre o futuro da visão computacional. Com o lançamento do YOLO11, painéis envolventes e debates sobre hardware de IA e soluções de ponta, o evento centrou-se na forma como a IA de visão pode fazer a diferença e como a tecnologia está a mudar para acompanhar os avanços da IA. Também reforçou as ligações no seio da comunidade. Especialistas e entusiastas partilharam ideias e exploraram o potencial da visão computacional e do YOLO. O evento terminou com uma divertida sessão de perguntas e respostas, na qual foram sorteadas camisolas Ultralytics , deixando todos entusiasmados com mais inovações como o YOLO11 no futuro.

Visite nosso repositório GitHub e conecte-se com nossa comunidade próspera para saber mais sobre IA. Veja como a Vision AI está redefinindo a inovação em setores como saúde e agricultura. 🚀

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente