Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Construa aplicações de drones alimentadas por IA com Ultralytics YOLO11

Abirami Vina

4 min de leitura

18 de abril de 2025

Aprenda a construir aplicações de drones alimentadas por IA com Ultralytics YOLO11, permitindo a detecção de objetos em tempo real e tarefas de visão computacional baseadas em drones.

Fazer compras na loja física e online pode parecer semelhante, mas dependem de logísticas diferentes. As lojas precisam de prateleiras reabastecidas, enquanto os pedidos online dependem de entregas na porta de casa. Graças aos avanços tecnológicos, ambas as experiências de compra estão sendo remodeladas em paralelo.

Por exemplo, uma grande mudança está acontecendo nas entregas. Drones alimentados por IA estão mudando a forma como os produtos chegam às nossas casas. Espera-se que esses drones inteligentes realizem cerca de 808 milhões de entregas na próxima década, transformando os céus na mais nova rota de entrega para o comércio diário.

Os drones de entrega usam inteligência artificial (IA) e visão computacional, um subcampo da IA usado para analisar dados visuais, para navegar e manobrar em torno de obstáculos. Modelos de visão computacional como o Ultralytics YOLO11 podem ajudar os drones a detectar e rastrear objetos em tempo real, permitindo que eles entendam e interajam melhor com seu ambiente.

Fig. 1. Um drone de entrega levando um pacote ao seu destino.

Empresas como Meituan e DJI já estão integrando visão computacional em seus drones. De fato, a rápida adoção de drones em vários setores preparou o mercado de drones com IA para disparar para US$ 206,9 bilhões até 2031. 

Neste artigo, veremos mais de perto como modelos de visão computacional como o Ultralytics YOLO11 podem ser usados em aplicações baseadas em drones, como entregas por drones. Percorreremos um exemplo que mostrará como essas tecnologias podem ser desenvolvidas e testadas antes de serem usadas em cenários do mundo real.

Usando Ultralytics YOLO11 em drones para detectar casas

Uma parte fundamental dos drones de entrega é sua capacidade de detectar casas enquanto navegam. Para recriar essa capacidade e entender como ela funciona, treinaremos um modelo de visão computacional que pode identificar casas em filmagens capturadas por um drone aéreo. Faremos um treinamento personalizado do YOLO11 para isso, o que envolve o ajuste fino de um modelo YOLO11 pré-treinado para reconhecer e detectar casas usando exemplos rotulados.

Para isso, precisaremos de dados de vídeo de alta qualidade de um drone. Curiosamente, mesmo sem acesso a um drone real, ainda podemos gerar filmagens aéreas realistas. Vamos dar uma olhada em como.

Criando uma filmagem artificial de drone usando o Google Earth Studio

O Google Earth Studio é uma ferramenta de animação baseada na web que pode ser usada pelos usuários para criar conteúdo estático e animado usando imagens de satélite e 3D do Google Earth. Podemos usá-lo para criar filmagens aéreas realistas.

O primeiro passo é abrir o Google Earth Studio e criar um projeto, como mostrado abaixo. 

Você precisará de uma conta do Google para fazer login.

Fig. 2. Criando um projeto no Google Earth Studio.

Depois de iniciar sessão, pode escolher um local para o seu vídeo de drone artificial. Usando a barra de pesquisa no canto superior esquerdo da página, pode procurar locais. Para este tutorial, escolheremos o Canadá. Além disso, como vamos treinar um modelo para detetar casas, o nosso vídeo de drone deve ter uma vista aérea de casas.

Fig. 3. Escolhendo um local usando o Google Earth Studio.

Em seguida, podemos definir os quadros inicial e final para capturar o movimento da filmagem artificial do drone. Depois de escolher o local de partida para a filmagem do drone, defina o primeiro quadro usando os diamantes azuis, como mostrado abaixo. 

Fig. 4. Definindo o primeiro quadro usando os diamantes azuis.

Em seguida, podemos escolher o último quadro para determinar o destino do drone. Isso nos ajudará a criar um efeito de movimento para a filmagem do drone. Para fazer isso, deslize a barra (destacada abaixo) para a direita até um horário específico para criar o efeito de movimento para a filmagem do drone. Mais uma vez, use os diamantes azuis para definir o último ponto.

Fig. 5. Definindo o último quadro movendo a barra.

Finalmente, você pode salvar este projeto e renderizá-lo clicando no botão vermelho "Renderizar" no canto superior direito da página. Isso lhe dará a saída de vídeo final da filmagem do drone, criando com sucesso filmagens de vídeo de drone artificiais.

Fig 6. Renderização do vídeo de saída final.

Como rotular os dados do drone?

Agora que criamos filmagens de vídeo de drone artificiais, o próximo passo é rotular ou anotar as casas nele. Também precisaremos separar os frames individuais do vídeo. 

Para começar, instalaremos o LabelImg. LabelImg é uma ferramenta de rotulagem de imagens de código aberto. Você pode instalá-lo diretamente do terminal usando o instalador de pacotes pip executando o seguinte comando: “pip install labelImg”.

Após a instalação, você pode executar a ferramenta usando o comando ‘labelImg’ no seu terminal ou prompt de comando. Isso o levará à página mostrada abaixo.

Fig 7. A interface da ferramenta LabelImg.

Enquanto isso, podemos usar um conversor online de vídeo para imagem ou uma ferramenta chamada FFmpeg para dividir o vídeo em frames. FFmpeg é uma coleção de bibliotecas e ferramentas para processar conteúdo multimídia, como áudio, vídeo, legendas e metadados relacionados. 

Você pode usar o seguinte comando de terminal para separar cada frame do vídeo da filmagem do drone:

Depois de separar os frames da filmagem do drone, podemos começar a rotular os objetos (casas) neles. Navegando até a pasta de imagens através da ferramenta LabelImg, podemos rotular os objetos em cada imagem. Certifique-se de salvar e verificar cada imagem rotulada. Após anotar as imagens, podemos agora passar para o treinamento do YOLO11 usando esses dados.

Fig 8. Um exemplo de como salvar imagens anotadas.

Fluxo de trabalho de treinamento do modelo YOLO11

Antes de começarmos a treinar o YOLO11, organizaremos nossas imagens e rótulos. Comece criando duas pastas: uma chamada "train" e a outra "valid". Divida suas imagens entre essas pastas. Dentro de cada uma, crie subpastas separadas para as imagens e seus arquivos de rótulos correspondentes (formato de texto), conforme mostrado abaixo.

Fig 9. Um exemplo de como criar pastas de imagem e rótulo.

Então, podemos começar a treinar o modelo YOLO11 da seguinte forma:

  • Passo 1: Instale o pacote Python Ultralytics. Você pode fazer isso executando o comando “pip install ultralytics” no seu terminal. Se você encontrar algum problema de instalação, consulte nosso guia de solução de problemas para obter dicas e truques para ajudá-lo a resolvê-los.
  • Passo 2: Após instalar o pacote com sucesso, crie um arquivo com o nome ‘data.yaml’. Este é um arquivo de configuração crucial para treinar o modelo. No arquivo data.yaml, inclua as seguintes informações: o caminho para seu conjunto de dados de treinamento, o caminho para seu conjunto de dados de validação, o número de classes (nc) e uma lista de nomes de classes (names), conforme mostrado abaixo.
Fig 10. Um exemplo de um arquivo data.yaml.

  • Passo 3: Depois que o arquivo ‘data.yaml’ for configurado, você pode começar a treinar seu modelo usando o seguinte código Python. Este código carrega o modelo YOLO11 pré-treinado e o treina de acordo com suas configurações.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • Passo 4: Assim que o treinamento for concluído, você deverá ver uma saída semelhante à mostrada abaixo. Isso significa que você treinou com sucesso seu modelo YOLO11 para aplicações baseadas em drones.
Fig 11. A saída mostrada após o treinamento do modelo.

Executando predições usando Ultralytics YOLO11 em drones

O modelo YOLO11 treinado agora pode ser usado para fazer predições através de um processo chamado inferência. A inferência envolve o uso de um modelo para analisar dados novos e não vistos com base no que aprendeu durante o treinamento. Neste caso, o modelo pode ser usado para encontrar e rotular objetos específicos, como casas, em imagens ou vídeos, desenhando caixas delimitadoras ao redor deles.

Para executar uma predição, você pode usar o modelo YOLO11 treinado em um vídeo de entrada usando o seguinte código Python. Neste exemplo, usaremos o mesmo vídeo de drone artificial que foi usado para treinamento, mas você pode usar qualquer outro arquivo de vídeo, se preferir.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

Após executar este código, o arquivo de vídeo de saída com as predições e caixas delimitadoras será salvo.

Fig 12. Um frame do arquivo de vídeo de saída. 

Integrando o Ultralytics YOLO11 em drones para diversas aplicações

A detecção de casas para entregas de encomendas por drone é apenas um exemplo de como a visão computacional e o YOLO11 podem ser aplicados. Aqui estão alguns outros usos no mundo real da visão computacional, YOLO11 e drones aéreos:

  • Vigilância e segurança: Drones com IA podem ser usados para monitorar grandes áreas em tempo real. Eles podem detectar intrusões, rastrear atividades suspeitas e aumentar a segurança nas fronteiras nacionais, bem como em grandes eventos públicos. 
  • Resposta a desastres e busca e salvamento: Equipados com câmaras térmicas e deteção de objetos, os drones podem ajudar a localizar sobreviventes em zonas de desastre. Eles também podem avaliar os danos e entregar suprimentos de emergência.
  • Agricultura e agricultura de precisão: Drones integrados com visão computacional podem ser usados para analisar a saúde das colheitas e detectar doenças, ajudando os agricultores a aumentar a produção e reduzir os custos. 
  • Mapeamento e análise geoespacial: Ao coletar mapas 3D de alta resolução, os drones com IA podem auxiliar no planejamento urbano e levantamentos topográficos. Eles fornecem avaliações de terreno mais rápidas e precisas do que os métodos tradicionais. 

Principais conclusões

Os drones com IA, impulsionados pela visão computacional, estão mudando muitos setores, desde a entrega de encomendas até o auxílio em emergências e na agricultura. Neste guia, explicamos como criar um vídeo artificial de drone, rotular objetos nele, treinar o YOLO11 e usá-lo para detectar casas.

Aplicar a detecção de objetos às filmagens de drones torna esses drones mais inteligentes, permitindo que eles reconheçam e rastreiem objetos automaticamente em tempo real. À medida que a tecnologia melhora, os drones orientados por IA provavelmente desempenharão um papel ainda maior na agilização das entregas, na melhoria da segurança e no auxílio à resposta a desastres.

Junte-se à nossa comunidade e explore o nosso repositório GitHub para saber mais sobre a Vision AI, e confira as nossas opções de licenciamento para dar o pontapé inicial nos seus projetos de visão computacional. Interessado em inovações como IA na indústria transformadora ou visão computacional na indústria automotiva? Visite as nossas páginas de soluções para descobrir mais. 

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência