Yolo Vision Shenzhen
Shenzhen
Únete ahora

Exportar un modelo Ultralytics YOLOv8 personalizado y entrenado

Nuvola Ladi

2 min de lectura

17 de abril de 2024

¡Explore la detección de objetos personalizada con Ultralytics YOLOv8! ¡Aprenda a entrenar, exportar y ejecutar inferencias en vivo en una cámara web!

Únete a nosotros mientras analizamos más de cerca la detección de objetos personalizada con Ultralytics YOLOv8. En esta entrada del blog, exploraremos el intrincado proceso de entrenamiento de un modelo personalizado, la exportación de los pesos entrenados y la ejecución de la inferencia en vivo en una cámara web. 

Entrenamiento de un modelo de detección de objetos personalizado

En nuestro vídeo anterior, profundizamos en el ámbito del entrenamiento de un modelo YOLOv8 en un conjunto de datos de tazas personalizado en Google Colab. Vimos que el gráfico de entrenamiento mejoraba constantemente, con la disminución de la pérdida y el aumento de la posición media del error. Basándonos en esto, nuestro modelo especial ahora puede identificar cinco tipos diferentes de tazas con gran precisión.

Con nuestro modelo personalizado entrenado y listo para usar, es hora de explorar la siguiente frontera: exportar los pesos entrenados y ejecutar la inferencia en vivo en una cámara web.

La inferencia de modelos es el proceso de utilizar un modelo de visión artificial entrenado para hacer predicciones o tomar decisiones basadas en datos nuevos y no vistos. Es cuando el modelo utiliza datos de entrada, como una imagen, y los procesa a través de sus parámetros y estructura aprendidos. A continuación, el modelo produce una salida, como la clasificación, la detección o la segmentación, en función de su tarea de entrenamiento. 

En términos prácticos, la inferencia a menudo implica la implementación del modelo entrenado en un entorno de producción donde se puede utilizar para procesar datos del mundo real en escenarios de tiempo real o de procesamiento por lotes.

Exportar y ejecutar la inferencia con el modelo entrenado

Con los pesos del modelo entrenado descargados de Colab, podemos importarlos sin problemas a un entorno de Python, listos para liberar todo el potencial de nuestro modelo personalizado.

Usando unas pocas líneas de código, podemos configurar un script de Python para ejecutar la inferencia en vivo en una webcam, capturando imágenes en tiempo real y detectando diferentes tazas con una precisión impresionante. El poder de YOLOv8 se manifiesta a medida que nuestro modelo identifica sin esfuerzo tazas de varias formas, tamaños y colores, mostrando su versatilidad y fiabilidad en escenarios del mundo real.

El ajuste fino de modelos ofrece varias ventajas. Pueden detectar, segmentar o clasificar objetos que los modelos preentrenados pueden no admitir. Además, pueden ayudar a los investigadores o científicos de datos a comprender cómo se comporta la arquitectura del modelo en conjuntos de datos del mundo real.

__wf_reserved_inherit
Fig. 1. Nicolai Nielsen explicando cómo entrenar un modelo personalizado, exportar los pesos entrenados y ejecutar la inferencia en vivo en una cámara web.

Resumiendo

Desde el entrenamiento de un modelo personalizado hasta la exportación de los pesos entrenados y la ejecución de la inferencia en vivo en una cámara web, hemos sido testigos de primera mano del poder y la versatilidad de YOLOv8.

Únase a nuestra búsqueda para desbloquear todo el potencial de la detección de objetos personalizada con Ultralytics YOLOv8. Juntos, demos forma al futuro de la IA, una detección a la vez. Consulte Ultralytics HUB y nuestra documentación para obtener más información sobre todo lo relacionado con Ultralytics, y únase a nuestra comunidad para mantenerse al día de las últimas novedades. 

Si tiene curiosidad por exportar modelos YOLOv8 entrenados a medida y ejecutar la inferencia en la cámara web, vea el vídeo completo aquí!

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles