O SharkEye usa o Ultralytics YOLOv8 para detecção de objetos

28 de janeiro de 2025
Entenda como o SharkEye, apresentado no YOLO Vision 2024, utiliza o Ultralytics YOLOv8 para detecção de objetos em tempo real e segurança nas praias.


28 de janeiro de 2025
Entenda como o SharkEye, apresentado no YOLO Vision 2024, utiliza o Ultralytics YOLOv8 para detecção de objetos em tempo real e segurança nas praias.

Monitorar animais em seus habitats naturais, sejam bovinos pastando em uma fazenda ou tubarões se movendo perto da costa, sempre foi importante para sua segurança e bem-estar. No entanto, observá-los manualmente não é fácil. Muitas vezes, pode envolver horas de paciência e foco cuidadoso, pois os observadores precisam observar atentamente quaisquer mudanças no comportamento ou movimento. Mesmo assim, é fácil perder sinais sutis, mas importantes.
Graças à intervenção da inteligência artificial (IA), este processo está a tornar-se mais rápido, mais inteligente e muito mais eficiente, reduzindo a pressão sobre os observadores humanos e, ao mesmo tempo, melhorando a precisão. Em particular, a visão computacional pode ser utilizada para rastrear animais, detetar perigos e tomar decisões em tempo real. Tarefas que antes demoravam horas podem agora ser realizadas em minutos, abrindo novas formas de compreender o comportamento animal.
Na YOLO Vision 2024 (YV24), um evento híbrido anual organizado pela Ultralytics, especialistas e inovadores reuniram-se para explorar como a IA está a enfrentar os desafios do dia a dia. Alguns dos tópicos apresentados incluíram avanços na deteção de objetos em tempo real e na monitorização de animais, demonstrando como a IA está a melhorar a segurança e a eficiência em vários campos.
Um dos destaques do evento foi uma palestra de Jim Griffin, Fundador do AI Master Group, onde ele demonstrou como a Vision AI está a tornar as praias mais seguras ao detetar tubarões antes que se aproximem demasiado da costa. Ele explicou como eles usaram o Ultralytics YOLOv8, um modelo de visão computacional de ponta, para identificar com precisão tubarões em tempo real, mesmo em condições desafiadoras como ondas agitadas, brilho e obstáculos subaquáticos.
Neste artigo, analisaremos mais de perto o projeto SharkEye e compartilharemos insights interessantes da palestra de Jim.
Jim começou sua palestra apresentando Padaro Beach, um destino de surf bem conhecido na Califórnia, onde surfistas e tubarões costumam compartilhar as mesmas águas. Destacando o desafio real da detecção de tubarões, ele compartilhou: “É claro, é fácil detectar um tubarão se ele te morder, então o que queríamos fazer é identificar os tubarões de antemão.”

O SharkEye foi criado para resolver este problema, com o apoio da Universidade da Califórnia, Santa Bárbara. Jim descreveu como drones com câmeras de IA de alta resolução foram usados para voar cerca de 200 pés acima da água, escaneando o oceano em tempo real.
Se um tubarão for detectado, alertas SMS chegam a cerca de 80 pessoas, incluindo salva-vidas, proprietários de lojas de surf e qualquer pessoa que se inscreveu para receber atualizações. Jim destacou como essas notificações instantâneas permitem respostas rápidas, mantendo os banhistas mais seguros quando um tubarão está perto da costa.
Jim também mencionou que o SharkEye apresenta um painel ao vivo onde os usuários podem ver as estatísticas de detecção de tubarões. Por exemplo, ao longo de 12 semanas, o sistema identificou dois tubarões grandes e 15 menores, com uma média de pouco mais de um tubarão por semana.
Ele então apresentou Neil Nathan, o cientista que liderou os esforços por trás do SharkEye. Apesar de ter formação em estudos ambientais em vez de ciência da computação, Nathan liderou com sucesso o projeto. Jim enfatizou como as ferramentas modernas de IA, como as usadas no SharkEye, são projetadas para serem acessíveis, permitindo que indivíduos de origens não técnicas desenvolvam soluções impactantes.
Aprofundando-se nos detalhes, Jim explicou o que está sob o capô do SharkEye e como a solução de detecção de tubarões não envolvia apenas uma simples tarefa de detecção de objetos. Ela teve que lidar com condições dinâmicas e imprevisíveis, como algas marinhas flutuantes que poderiam ser facilmente confundidas com tubarões. Ao contrário de identificar um objeto estacionário, identificar um tubarão requer precisão e adaptabilidade, tornando o YOLOv8 uma escolha ideal.
Outra vantagem do YOLOv8 era que podia ser implementado num drone sem depender de servidores na nuvem. Jim explicou como esta abordagem permitiu à SharkEye enviar alertas imediatos - uma parte essencial para garantir respostas atempadas em condições oceânicas imprevisíveis.
Depois de destacar como o SharkEye funciona e o esforço colaborativo por trás dele, Jim apresentou uma demonstração ao vivo.
Jim Griffin iniciou sua demonstração ao vivo guiando o público por um exemplo familiar - um trecho de código "hello world" para modelos Ultralytics YOLO. Com apenas seis linhas de código Python, ele exibiu como um modelo Ultralytics YOLOv8 pré-treinado poderia detectar sem esforço um ônibus em uma imagem.

A demonstração dele usou o modelo YOLOv8 Nano, uma versão leve para dispositivos de baixa potência, como drones. O mesmo modelo foi usado no SharkEye para detecção de tubarões em tempo real.
Para fornecer mais contexto, Jim mencionou que o modelo na demonstração estava sendo treinado no COCO128, um subconjunto menor do amplamente utilizado conjunto de dados COCO. O conjunto de dados COCO contém mais de 20.000 imagens em 80 categorias de objetos diferentes. Embora o COCO128 funcione bem para demonstrações rápidas, ele apontou que o SharkEye precisava de algo mais robusto - um conjunto de dados de detecção de tubarões específico para a aplicação, que pudesse lidar com as complexidades de cenários do mundo real.
De acordo com Jim, a parte mais difícil do projeto SharkEye não foi treinar o modelo de IA, mas coletar os dados certos. Ele comentou: "O principal trabalho deste projeto não foi IA. O principal trabalho deste projeto foi voar com esses drones por cinco anos, extrair as imagens desses vídeos e marcá-las adequadamente."
Ele descreveu como a equipe coletou 15.000 imagens na Praia de Padaro. Cada imagem teve que ser rotulada manualmente para diferenciar tubarões, algas marinhas e outros objetos na água. Embora o processo tenha sido lento e exigente, ele lançou as bases para tudo o que se seguiu.

Uma vez que o conjunto de dados estava pronto, o Ultralytics YOLOV8 foi treinado de forma personalizada nele. Jim disse: "O treinamento real não foi a parte difícil - levou apenas 20 horas em GPUs T4 [Unidades de processamento gráfico]." Ele também acrescentou que o tempo poderia ter sido reduzido para apenas cinco horas com hardware mais potente, como GPUs A100.
Então, Jim discutiu como o desempenho do SharkEye foi avaliado. Ele ilustrou que a principal métrica era a precisão - com que precisão o sistema identificava tubarões reais. Com o SharkEye alcançando uma precisão impressionante de 92%, o modelo provou ser altamente eficaz na identificação precisa de tubarões em meio ao complexo ambiente oceânico.
Aprofundando-se na importância da precisão, Jim esclareceu por que a precisão importava mais do que a revocação neste caso. “Na maioria das vezes, as pessoas estão interessadas na revocação, especialmente em áreas como a saúde, onde perder um caso positivo pode ser crítico. Mas, neste caso, não sabíamos quantos tubarões havia lá fora, então o que nos importava era a precisão”, explicou ele. O SharkEye garantiu que os falsos alarmes fossem minimizados, concentrando-se na precisão, facilitando a ação rápida dos salva-vidas e outros socorristas.

Ele concluiu sua palestra comparando a IA ao desempenho humano, observando que a precisão de 92% do SharkEye superava em muito a precisão de 60% dos especialistas humanos. Ele enfatizou essa lacuna, dizendo: “É porque somos humanos. Não importa o quão especialista você ou eu possamos ser, se tivermos que sentar em frente a uma tela o dia todo procurando tubarões, eventualmente, vamos deixar nossas mentes vagarem.” Ao contrário das pessoas, os modelos de IA não se cansam nem se distraem, tornando-se uma solução confiável para tarefas que exigem monitoramento contínuo.
Uma citação intrigante da palestra de Jim Griffin, “Seis linhas de código podem salvar sua vida um dia,” captura perfeitamente o quão avançada e acessível a IA se tornou. Os modelos Ultralytics YOLO foram criados com isso em mente, tornando a tecnologia de visão computacional de ponta acessível a desenvolvedores e empresas de todos os tamanhos. O Ultralytics YOLO11 se baseia nisso com inferências mais rápidas e maior precisão.
Aqui está uma visão geral rápida do que diferencia o YOLO11:
Esses recursos tornam o YOLO11 uma ótima opção para rastreamento do comportamento animal em ambientes dinâmicos, seja em uma fazenda ou na natureza.
Os avanços na Visão de IA estão facilitando a resolução de desafios do mundo real, fornecendo ferramentas práticas para vários campos. Por exemplo, modelos de visão computacional como o YOLO11 podem ser usados para o monitoramento e rastreamento em tempo real de animais, mesmo em condições difíceis.
A palestra de Jim Griffin na YV24 ilustrou como o YOLOv8 pode ser usado para resolver problemas complexos com o mínimo de codificação. O projeto SharkEye, que combina drones com IA para detecção de tubarões em tempo real, mostrou como a tecnologia pode melhorar a segurança da praia.
Foi um estudo de caso fascinante de como a IA acessível capacita pessoas de diferentes origens a criar soluções eficazes. À medida que a IA continua a evoluir, está a transformar indústrias e a tornar possível que os indivíduos aproveitem o seu potencial para tornar o mundo um lugar mais seguro, inteligente e eficiente.
Faça parte da nossa comunidade e explore nosso repositório GitHub para mergulhar mais fundo em IA. De visão computacional na agricultura a IA em carros autônomos, veja como essas tecnologias estão impulsionando a inovação. Confira nossas opções de licenciamento para começar seus projetos de IA hoje mesmo!