Exportar un modelo Ultralytics YOLOv8 personalizado y entrenado

17 de abril de 2024
¡Explore la detección de objetos personalizada con Ultralytics YOLOv8! ¡Aprenda a entrenar, exportar y ejecutar inferencias en vivo en una cámara web!


17 de abril de 2024
¡Explore la detección de objetos personalizada con Ultralytics YOLOv8! ¡Aprenda a entrenar, exportar y ejecutar inferencias en vivo en una cámara web!

Únete a nosotros mientras analizamos más de cerca la detección de objetos personalizada con Ultralytics YOLOv8. En esta entrada del blog, exploraremos el intrincado proceso de entrenamiento de un modelo personalizado, la exportación de los pesos entrenados y la ejecución de la inferencia en vivo en una cámara web.
En nuestro vídeo anterior, profundizamos en el ámbito del entrenamiento de un modelo YOLOv8 en un conjunto de datos de tazas personalizado en Google Colab. Vimos que el gráfico de entrenamiento mejoraba constantemente, con la disminución de la pérdida y el aumento de la posición media del error. Basándonos en esto, nuestro modelo especial ahora puede identificar cinco tipos diferentes de tazas con gran precisión.
Con nuestro modelo personalizado entrenado y listo para usar, es hora de explorar la siguiente frontera: exportar los pesos entrenados y ejecutar la inferencia en vivo en una cámara web.
La inferencia de modelos es el proceso de utilizar un modelo de visión artificial entrenado para hacer predicciones o tomar decisiones basadas en datos nuevos y no vistos. Es cuando el modelo utiliza datos de entrada, como una imagen, y los procesa a través de sus parámetros y estructura aprendidos. A continuación, el modelo produce una salida, como la clasificación, la detección o la segmentación, en función de su tarea de entrenamiento.
En términos prácticos, la inferencia a menudo implica la implementación del modelo entrenado en un entorno de producción donde se puede utilizar para procesar datos del mundo real en escenarios de tiempo real o de procesamiento por lotes.
Con los pesos del modelo entrenado descargados de Colab, podemos importarlos sin problemas a un entorno de Python, listos para liberar todo el potencial de nuestro modelo personalizado.
Usando unas pocas líneas de código, podemos configurar un script de Python para ejecutar la inferencia en vivo en una webcam, capturando imágenes en tiempo real y detectando diferentes tazas con una precisión impresionante. El poder de YOLOv8 se manifiesta a medida que nuestro modelo identifica sin esfuerzo tazas de varias formas, tamaños y colores, mostrando su versatilidad y fiabilidad en escenarios del mundo real.
El ajuste fino de modelos ofrece varias ventajas. Pueden detectar, segmentar o clasificar objetos que los modelos preentrenados pueden no admitir. Además, pueden ayudar a los investigadores o científicos de datos a comprender cómo se comporta la arquitectura del modelo en conjuntos de datos del mundo real.

Desde el entrenamiento de un modelo personalizado hasta la exportación de los pesos entrenados y la ejecución de la inferencia en vivo en una cámara web, hemos sido testigos de primera mano del poder y la versatilidad de YOLOv8.
Únase a nuestra búsqueda para desbloquear todo el potencial de la detección de objetos personalizada con Ultralytics YOLOv8. Juntos, demos forma al futuro de la IA, una detección a la vez. Consulte Ultralytics HUB y nuestra documentación para obtener más información sobre todo lo relacionado con Ultralytics, y únase a nuestra comunidad para mantenerse al día de las últimas novedades.
Si tiene curiosidad por exportar modelos YOLOv8 entrenados a medida y ejecutar la inferencia en la cámara web, vea el vídeo completo aquí!