X
Ultralytics YOLOv8.2 LiberaciónUltralytics YOLOv8.2 LiberaciónUltralytics YOLOv8.2 Flecha de liberación
Cheque verde
Enlace copiado en el portapapeles

Entrenamiento de conjuntos de datos personalizados con Ultralytics YOLOv8 en Google Colab

Domina el entrenamiento de conjuntos de datos personalizados con Ultralytics YOLOv8 en Google Colab. Desde la configuración hasta la formación y la evaluación, esta guía lo cubre todo.

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

En este blog veremos cómo dominar la detección de objetos personalizada utilizando Ultralytics YOLOv8 en Google Colab. Prepárate para liberar el poder de YOLOv8 mientras te guiamos por todo el proceso, desde la configuración hasta la formación y la evaluación.

Configuración del modelo YOLOv8 en Google Colab

Empecemos configurando nuestro entorno en Google Colab. ¿Qué es Google Colab? Abreviatura de Google Colaboratory, Google Colab es una plataforma gratuita en la nube de Google para escribir y ejecutar código Python . 

El primer paso para configurarlo es asegurarte de que tienes acceso a una GPU seleccionando el tipo de ejecución adecuado. Comprueba que todo funciona correctamente utilizando el comando nvidia-smi para verificar la configuración de tu GPU.

A continuación, instala las dependencias Ultralytics y YOLOv8 utilizando pip. Importa el modelo YOLO de Ultralytics para comenzar nuestro viaje de detección de objetos personalizados.

Etiquetar y preparar tu conjunto de datos

Ahora, vamos a preparar nuestro conjunto de datos. Etiqueta tus datos con cuadros delimitadores, especificando las clases de cada objeto. Exporta tu conjunto de datos al formato YOLOv8 desde Ultralytics e impórtalo en tu cuaderno Google Colab.

Entrena tu modelo personalizado YOLOv8

Establece la tarea a detectar para la detección de objetos y elige el YOLOv8 tamaño del modelo que se adapte a tus necesidades. Especifica la ubicación de tu conjunto de datos, el número de épocas y el tamaño de la imagen para el entrenamiento. Observa cómo tu modelo aprende y se adapta, gracias a la potencia de YOLOv8 y la aceleración de la GPU.

Evaluar y validar tu modelo

Una vez completado el entrenamiento, evalúa el rendimiento de tu modelo utilizando métricas como la posición media de error. Valida tu modelo con datos no vistos para garantizar su capacidad de generalización. Traza matrices de confusión y analiza las predicciones para afinar aún más tu modelo.

Ultralytics YOLOv8 Los modelos se pueden validar fácilmente con un único comando CLI , que tiene múltiples funciones clave, como la configuración automática de hiperparámetros, la compatibilidad con múltiples métricas, etc. 

Ultralytics también admite algunos argumentos de CLI y Python que los usuarios pueden utilizar durante la validación para obtener mejores resultados en función de sus necesidades. Para más información, puedes consultar nuestra documentación.

Fig. 1. Nicolai Nielsen explica cómo entrenar conjuntos de datos personalizados con Ultralytics YOLOv8 en Google Colab.

Llevar tu modelo al siguiente nivel

Ya has entrenado con éxito tu modelo personalizado YOLOv8 en Google Colab. Pero nuestro viaje no termina aquí. En nuestro próximo vídeo, exploraremos cómo exportar los pesos del modelo y ejecutar la inferencia en vivo utilizando nuestro modelo YOLOv8 entrenado a medida. Prepárate para una experiencia estimulante mientras superamos los límites de la detección de objetos. ¡Permanece atento! 

Conclusión

Gracias por acompañarnos en nuestro recorrido por el mundo de la detección de objetos personalizada con YOLOv8 en Google Colab. Permanece atento a más actualizaciones y tutoriales interesantes mientras seguimos explorando las posibilidades ilimitadas de la IA y el aprendizaje automático. 

Con esta completa guía, ya estás equipado para entrenar tus propios modelos personalizados de detección de objetos utilizando Ultralytics YOLOv8 en Google Colab. ¡Mira el tutorial completo aquí

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático

Leer más en esta categoría