¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Cree aplicaciones de drones impulsadas por IA con Ultralytics YOLO11

Abirami Vina

4 minutos de lectura

18 de abril de 2025

Aprenda a crear aplicaciones de drones impulsadas por IA con Ultralytics YOLO11, lo que permite la detección de objetos en tiempo real y tareas de visión artificial basadas en drones.

Las compras en tienda y las compras online pueden parecer similares, pero dependen de diferentes logísticas. Las tiendas necesitan que se repongan los estantes, mientras que los pedidos online dependen de las entregas a domicilio. Gracias a los avances tecnológicos, ambas experiencias de compra se están transformando en paralelo.

Por ejemplo, se está produciendo un cambio importante en las entregas. Los drones impulsados por IA están cambiando la forma en que los productos llegan a nuestros hogares. Se espera que estos drones inteligentes gestionen alrededor de 808 millones de entregas en la próxima década, convirtiendo los cielos en la ruta de entrega más nueva para el comercio cotidiano.

Los drones de reparto utilizan inteligencia artificial (IA) y visión artificial, un subcampo de la IA que se utiliza para analizar datos visuales, para navegar y maniobrar alrededor de los obstáculos. Los modelos de visión artificial como Ultralytics YOLO11 pueden ayudar a los drones a detectar y rastrear objetos en tiempo real, lo que les permite comprender e interactuar mejor con su entorno.

Fig. 1. Un dron de reparto llevando un paquete a su destino.

Empresas como Meituan y DJI ya están integrando la visión artificial en sus drones. De hecho, la rápida adopción de drones en diversas industrias ha preparado el mercado de drones con IA para dispararse a 206.900 millones de dólares en 2031. 

En este artículo, analizaremos más de cerca cómo los modelos de visión artificial como Ultralytics YOLO11 pueden utilizarse en aplicaciones basadas en drones, como las entregas con drones. Veremos un ejemplo que mostrará cómo se pueden desarrollar y probar estas tecnologías antes de utilizarlas en escenarios del mundo real.

Uso de Ultralytics YOLO11 en drones para detectar casas

Una parte clave de los drones de reparto es su capacidad para detectar casas mientras navegan. Para recrear esta capacidad y comprender cómo funciona, entrenaremos un modelo de visión artificial que pueda identificar casas en las imágenes capturadas por un dron aéreo. Entrenaremos de forma personalizada YOLO11 para esto, lo que implica ajustar un modelo YOLO11 pre-entrenado para reconocer y detectar casas mediante el uso de ejemplos etiquetados.

Para ello, necesitaremos datos de vídeo de alta calidad de un dron. Curiosamente, incluso sin acceso a un dron real, podemos generar imágenes aéreas realistas. Echemos un vistazo a cómo.

Creación de una toma de dron artificial utilizando Google Earth Studio

Google Earth Studio es una herramienta de animación basada en la web que los usuarios pueden utilizar para crear contenido estático y animado utilizando imágenes de satélite y 3D de Google Earth. Podemos utilizarlo para crear imágenes aéreas realistas.

El primer paso es abrir Google Earth Studio y crear un proyecto, como se muestra a continuación. 

Necesitará una cuenta de Google para iniciar sesión.

Fig. 2. Creación de un proyecto en Google Earth Studio.

Una vez que haya iniciado sesión, puede elegir una ubicación para su vídeo de dron artificial. Utilizando la barra de búsqueda en la esquina superior izquierda de la página, puede buscar ubicaciones. Para este tutorial, elegiremos Canadá. Además, como vamos a entrenar un modelo para detectar casas, nuestro vídeo de dron debería tener una vista aérea de las casas.

Fig. 3. Selección de una ubicación utilizando Google Earth Studio.

A continuación, podemos establecer el primer y el último fotograma para capturar el movimiento de la toma de dron artificial. Una vez que haya elegido la ubicación de inicio para la toma de dron, establezca el primer fotograma utilizando los diamantes azules, como se muestra a continuación. 

Fig. 4. Ajuste el primer fotograma utilizando los diamantes azules.

A continuación, podemos elegir el último fotograma para determinar el destino del dron. Esto nos ayudará a crear un efecto de movimiento para las imágenes del dron. Para ello, deslice la barra (resaltada abajo) hacia la derecha hasta un momento específico para crear el efecto de movimiento para la toma del dron. Una vez más, utilice los diamantes azules para establecer el último punto.

Fig. 5. Ajuste del último fotograma moviendo la barra.

Finalmente, puedes guardar este proyecto y renderizarlo haciendo clic en el botón rojo “Render” en la esquina superior derecha de la página. Esto te dará la salida de video final de la toma del dron, creando con éxito metraje de video de dron artificial.

Fig. 6. Renderizado del video de salida final.

¿Cómo etiquetar los datos del dron?

Ahora que hemos creado metraje de video de dron artificial, el siguiente paso es etiquetar o anotar las casas en él. También necesitaremos separar los fotogramas individuales del video. 

Para empezar con esto, instalaremos LabelImg. LabelImg es una herramienta de etiquetado de imágenes de código abierto. Puede instalarlo directamente desde la terminal utilizando el instalador de paquetes pip ejecutando el siguiente comando: “pip install labelImg”.

Después de la instalación, puede ejecutar la herramienta utilizando el comando ‘labelImg’ en su terminal o símbolo del sistema. Esto le llevará a la página que se muestra a continuación.

Fig. 7. La interfaz de la herramienta LabelImg.

Mientras tanto, podemos utilizar un convertidor de video a imagen en línea o una herramienta llamada FFmpeg para dividir el video en fotogramas. FFmpeg es una colección de bibliotecas y herramientas para procesar contenido multimedia como audio, video, subtítulos y metadatos relacionados. 

Puede utilizar el siguiente comando de terminal para separar cada fotograma del video del dron:

Una vez que hayamos separado los fotogramas del metraje del dron, podemos empezar a etiquetar los objetos (casas) en ellos. Navegando a la carpeta de imágenes a través de la herramienta LabelImg, podemos etiquetar los objetos en cada imagen. Asegúrese de guardar y verificar cada imagen etiquetada. Después de anotar las imágenes, ahora podemos pasar a entrenar YOLO11 utilizando estos datos.

Fig. 8. Un ejemplo de cómo guardar imágenes anotadas.

Flujo de trabajo de entrenamiento del modelo YOLO11

Antes de empezar a entrenar YOLO11, organizaremos nuestras imágenes y etiquetas. Comience creando dos carpetas: una llamada "train" y la otra "valid". Divida sus imágenes entre estas carpetas. Dentro de cada una, cree subcarpetas separadas para las imágenes y sus correspondientes archivos de etiquetas (formato de texto), como se muestra a continuación.

Fig. 9. Un ejemplo de cómo crear carpetas de imágenes y etiquetas.

Luego, podemos comenzar a entrenar el modelo YOLO11 de la siguiente manera:

  • Paso 1: Instale el paquete de Python Ultralytics. Puede hacerlo ejecutando el comando “pip install ultralytics” en su terminal. Si encuentra algún problema de instalación, consulte nuestra guía de solución de problemas para obtener consejos y trucos que le ayudarán a resolverlos.
  • Paso 2: Después de instalar correctamente el paquete, cree un archivo con el nombre ‘data.yaml’. Este es un archivo de configuración que es crucial para entrenar el modelo. En el archivo data.yaml, incluya la siguiente información: la ruta a su conjunto de datos de entrenamiento, la ruta a su conjunto de datos de validación, el número de clases (nc) y una lista de nombres de clases (names), como se muestra a continuación.
Fig. 10. Un ejemplo de un archivo data.yaml.

  • Paso 3: Una vez que el archivo ‘data.yaml’ esté configurado, puede comenzar a entrenar su modelo utilizando el siguiente código de Python. Este código carga el modelo YOLO11 pre-entrenado y lo entrena según sus configuraciones.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • Paso 4: Una vez que se complete el entrenamiento, debería ver una salida similar a la que se muestra a continuación. Esto significa que ha entrenado con éxito su modelo YOLO11 para aplicaciones basadas en drones.
Fig. 11. La salida que se muestra después del entrenamiento del modelo.

Ejecución de predicciones utilizando Ultralytics YOLO11 en drones

El modelo YOLO11 entrenado ahora se puede utilizar para hacer predicciones a través de un proceso llamado inferencia. La inferencia implica el uso de un modelo para analizar datos nuevos y no vistos basándose en lo que aprendió durante el entrenamiento. En este caso, el modelo se puede utilizar para encontrar y etiquetar objetos específicos, como casas, en imágenes o vídeos dibujando cuadros delimitadores a su alrededor.

Para ejecutar una predicción, puede utilizar el modelo YOLO11 entrenado en un vídeo de entrada utilizando el siguiente código de Python. En este ejemplo, utilizaremos el mismo vídeo artificial de drones que se utilizó para el entrenamiento, pero puede utilizar cualquier otro archivo de vídeo si lo prefiere.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

Después de ejecutar este código, se guardará el archivo de vídeo de salida con las predicciones y los cuadros delimitadores.

Fig. 12. Un fotograma del archivo de vídeo de salida. 

Integración de Ultralytics YOLO11 en drones para diversas aplicaciones

La detección de casas para la entrega de paquetes con drones es solo un ejemplo de cómo se pueden aplicar la visión artificial y YOLO11. Estos son otros usos reales de la visión artificial, YOLO11 y los drones aéreos:

  • Vigilancia y seguridad: Los drones con IA se pueden utilizar para supervisar grandes áreas en tiempo real. Pueden detectar intrusiones, rastrear actividades sospechosas y mejorar la seguridad en las fronteras nacionales, así como en grandes eventos públicos. 
  • Respuesta a desastres y búsqueda y rescate: Equipados con cámaras térmicas y detección de objetos, los drones pueden ayudar a localizar supervivientes en zonas de desastre. También pueden evaluar los daños y entregar suministros de emergencia.
  • Agricultura y agricultura de precisión: Los drones integrados con visión artificial se pueden utilizar para analizar la salud de los cultivos y detectar enfermedades, lo que ayuda a los agricultores a aumentar el rendimiento y reducir los costes. 
  • Cartografía y análisis geoespacial: Mediante la recopilación de mapas 3D de alta resolución, los drones con IA pueden ayudar en la planificación urbana y los estudios de terrenos. Proporcionan evaluaciones del terreno más rápidas y precisas que los métodos tradicionales. 

Conclusiones clave

Los drones con IA impulsados por visión artificial están cambiando muchas industrias, desde la entrega de paquetes hasta la ayuda en emergencias y la agricultura. En esta guía, hemos recorrido la creación de un vídeo artificial de drones, el etiquetado de objetos en él, el entrenamiento de YOLO11 y su uso para detectar casas.

La aplicación de la detección de objetos a las imágenes de drones hace que estos drones sean más inteligentes, lo que les permite reconocer y rastrear objetos automáticamente en tiempo real. A medida que la tecnología mejore, es probable que los drones impulsados por IA desempeñen un papel aún mayor en la agilización de las entregas, la mejora de la seguridad y la ayuda en la respuesta a desastres.

Únase a nuestra comunidad y explore nuestro repositorio de GitHub para obtener más información sobre Vision AI, y consulte nuestras opciones de licencia para poner en marcha sus proyectos de visión artificial. ¿Está interesado en innovaciones como la IA en la fabricación o la visión artificial en la industria automotriz? Visite nuestras páginas de soluciones para descubrir más. 

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles