¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Extracción de salidas de Ultralytics YOLOv8

Nuvola Ladi

3 minutos de lectura

25 de abril de 2024

Descubra cómo optimizar sus proyectos de visión artificial con Ultralytics YOLOv8. Esta guía pretende cubrir todo lo relacionado con YOLOv8, desde la configuración hasta la extracción de resultados y la implementación práctica.

En el campo en constante cambio de la visión artificial, Ultralytics YOLOv8 destaca como un modelo de primer nivel para tareas como la detección de objetos, la segmentación y el seguimiento. Tanto si eres un desarrollador experimentado como un principiante en la inteligencia artificial (IA), comprender cómo extraer eficazmente los resultados de YOLOv8 puede mejorar significativamente tus proyectos. Esta entrada de blog profundiza en los pasos prácticos para extraer y utilizar los resultados del modelo YOLOv8.

Configurando YOLOv8

Antes de sumergirnos en la extracción de resultados, es crucial tener tu modelo YOLOv8 en funcionamiento. Si eres nuevo, puedes ver nuestros videos anteriores donde cubrimos los conceptos básicos de configuración y uso de modelos YOLO para diversas tareas de visión artificial. Para comenzar con la extracción de resultados, asegúrate de que tu modelo esté configurado correctamente:

  1. Inicialización del modelo: Inicialice el modelo YOLOv8 de forma adecuada, asegurándose de elegir la configuración de modelo correcta que se adapte a sus necesidades específicas, ya sea la detección de objetos o tareas más complejas como la estimación de la pose.
  2. Ejecución de inferencias: Introduzca sus datos a través del modelo para realizar la inferencia. Este proceso generará un objeto de resultados, que es su clave para acceder a todos los datos de detección.

Entendiendo el objeto de resultados

El objeto de resultados en YOLOv8 es una mina de oro de información. Contiene todos los datos de detección que necesita para continuar con su proyecto, incluyendo:

  • Bounding Boxes: Uso results.boxes para acceder a las coordenadas de los objetos detectados.
  • Máscaras y puntos clave: Accede a máscaras de segmentación y puntos clave para la estimación de poses utilizando results.masks y results.keypoints respectivamente.
  • Probabilidades de clase: results.probabilities proporciona la probabilidad de cada clase detectada, lo cual es útil para filtrar detecciones basándose en los puntajes de confianza.

Extracción de datos para uso personalizado

Para utilizar estas salidas en tus aplicaciones, sigue estos pasos:

  1. Convertir datos para el procesamiento: Si estás ejecutando tu modelo en una GPU, convierte las salidas a formato CPU usando .cpu() para su posterior manipulación.
  2. Acceso a las coordenadas del cuadro delimitador: Recupere y manipule las coordenadas del cuadro delimitador directamente desde el objeto de resultados. Esto incluye el acceso a las coordenadas normalizadas o a atributos específicos como el ancho y el alto.
  3. Manejo de Clasificaciones: Extraiga las clasificaciones principales para utilizar los ID de clase y los puntajes de confianza de manera efectiva.

Aplicación práctica en código

En la transición de la teoría a la práctica, Nicolai Nielsen demuestra cómo implementar estos conceptos dentro de un script personalizado de Python utilizando Visual Studio Code. El script incluye:

  • Configuración de una clase de detección: Inicialice y configure su modelo YOLOv8 dentro de una estructura de clase, preparándolo para la entrada de datos en vivo.
  • Extracción de resultados: Ejecute la detección y extraiga cuadros delimitadores, máscaras y clasificaciones directamente del objeto de resultados.
  • Utilización de salidas: Convierte los resultados en formatos utilizables como JSON o CSV, o utilízalos directamente para dibujar cuadros delimitadores en imágenes o transmisiones de vídeo.

Visualización y más allá

Si bien la extracción de datos brutos es crucial, la visualización de estas detecciones puede proporcionar información inmediata sobre el rendimiento del modelo:

  • Dibujo de rectángulos: utilice los datos de bounding boxes para dibujar rectángulos alrededor de los objetos detectados en las salidas de imagen o video.
  • Trazado Directo: Utilice las funciones de trazado integradas de YOLOv8 para visualizar directamente las detecciones sin necesidad de codificación adicional.

Ampliando su conjunto de herramientas de IA con YOLOv8

Dominar la extracción de salidas de YOLOv8 no solo impulsa las capacidades de tu proyecto, sino que también profundiza tu comprensión de los sistemas de detección de objetos.

Siguiendo estos pasos, puede aprovechar toda la potencia de YOLOv8 para adaptar las detecciones a sus necesidades específicas, ya sea en el desarrollo de aplicaciones avanzadas impulsadas por la IA o en la realización de análisis de datos robustos.

Mantente atento a más tutoriales que te ayudarán a aprovechar YOLOv8 y otras tecnologías de IA en todo su potencial. Transforma tu conocimiento teórico en habilidades prácticas y da vida a tus proyectos de visión artificial con precisión y eficiencia. ¡Únete a nuestra comunidad para mantenerte al día con los últimos avances y consulta nuestros documentos para obtener más información! 

¡Vea el vídeo completo aquí

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles