Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Comprenda cómo el nuevo modelo YOLO11 de Ultralytics se puede utilizar para la segmentación de instancias para lograr una mayor precisión en aplicaciones como la gestión de residuos y la monitorización de llamaradas.
La visión artificial, un campo dentro de la inteligencia artificial (IA) que ayuda a las máquinas a interpretar y comprender la información visual, permite tareas como la segmentación de instancias. La segmentación de instancias se puede utilizar para analizar una imagen o un fotograma de vídeo para marcar los límites exactos de cada objeto distinto en la imagen, incluso cuando hay varios objetos del mismo tipo presentes. Con su alto nivel de precisión, la segmentación de instancias tiene una amplia gama de aplicaciones, desde ayudar a los coches autónomos a detectar obstáculos en la carretera hasta identificar tumores en escáneres médicos.
Fig. 1. Un ejemplo del uso del modelo Ultralytics YOLO11 para la segmentación de instancias.
En este artículo, exploraremos la segmentación de instancias y en qué se diferencia de otras tareas de visión artificial como la segmentación semántica, así como también discutiremos algunas de sus aplicaciones. También repasaremos cómo puede utilizar el modelo de segmentación de instancias YOLO11 utilizando el paquete de Python de Ultralytics y la plataforma Ultralytics HUB. ¡Empecemos!
¿Qué es la segmentación de instancias?
La segmentación de instancias puede utilizarse para identificar objetos en una imagen y delinearlos a nivel de píxel. El proceso suele consistir primero en detectar objetos y dibujar cuadros delimitadores a su alrededor. A continuación, un algoritmo de segmentación clasifica cada píxel dentro del cuadro delimitador para crear una máscara precisa para cada objeto.
La segmentación de instancias también es diferente de tareas como la segmentación semántica y la segmentación panóptica. La segmentación semántica etiqueta cada píxel basándose en la categoría general de un objeto, sin distinguir las instancias individuales. La segmentación panóptica, por otro lado, combina la segmentación de instancias y la segmentación semántica etiquetando cada píxel con una clase y un ID de instancia, identificando objetos individuales dentro de cada categoría.
Fig. 2. Uso de YOLO11 para detectar y segmentar una persona y un perro.
Las capacidades de la segmentación de instancias se pueden aplicar en varios escenarios que pueden requerir diferentes modelos. Por ejemplo, un modelo ligero podría ser ideal para el procesamiento en tiempo real en aplicaciones móviles, mientras que un modelo más complejo podría utilizarse para tareas de alta precisión como el control de calidad en la fabricación.
Al igual que los modelos anteriores, el modelo de segmentación de instancias YOLO11 también viene con varias variaciones según sus necesidades. Estas variaciones incluyen YOLO11n-seg (Nano), YOLO11s-seg (Small), YOLO11m-seg (Medium), YOLO11l-seg (Large) y YOLO11x-seg (Extra Large). Estos modelos varían en términos de tamaño, velocidad de procesamiento, precisión y la cantidad de potencia computacional que requieren. Según sus requisitos específicos, puede elegir el modelo que mejor se adapte a su aplicación.
Aplicaciones de segmentación de instancias para YOLO11
Las capacidades avanzadas de segmentación de instancias de YOLO11 abren una gama de aplicaciones en diversas industrias. Echemos un vistazo más de cerca a algunas de estas aplicaciones.
Uso de la segmentación YOLO11 en la industria del petróleo y el gas
La extracción de petróleo y gas implica la gestión de fluctuaciones de presión extremadamente altas. Técnicas como la quema de gas ayudan a quemar el gas natural que se produce durante la extracción de petróleo. Es necesario por razones de seguridad. Por ejemplo, en la extracción de petróleo crudo, un pico de presión repentino o significativo podría provocar una explosión. Aunque son poco comunes, los accidentes industriales en el sector de fabricación de petróleo y gas pueden provocar incendios intensos que son difíciles de contener y controlar. La quema de gas ayuda a los operadores a despresurizar de forma segura los equipos y a gestionar fluctuaciones de presión grandes e impredecibles quemando el exceso de gas.
Los sistemas de IA pueden mejorar este proceso de monitorización, y el riesgo de accidentes puede reducirse utilizando un sistema de monitorización de quemas basado en la segmentación de instancias. La monitorización de la quema de gas también es importante por razones medioambientales, ya que una quema excesiva puede tener un impacto negativo en el medio ambiente.
Los modelos de segmentación de instancias Ultralytics YOLO11 se pueden utilizar para monitorizar la cantidad de fuego y humo causado por la quema. Se puede calcular el área de píxeles del fuego detectado y segmentado y del humo. Utilizando esta información, los operadores pueden obtener información en tiempo real sobre el fuego y el humo causado por la quema, lo que les ayuda a prevenir accidentes e impactos ambientales negativos.
Fig. 3. Un ejemplo de monitorización de emisiones utilizando YOLO11 en la fabricación de petróleo y gas.
Segmentación de instancias con YOLO11 para la gestión de residuos plásticos
Los trabajadores de las instalaciones de gestión de residuos y reciclaje pueden utilizar sistemas basados en la segmentación de instancias YOLO11 para identificar materiales de residuos plásticos. YOLO11 puede integrarse con sistemas robóticos de clasificación para identificar con precisión diferentes materiales de residuos, como cartón y plástico (para ser procesados por separado). Esto es especialmente importante si se tiene en cuenta que de los 7.000 millones de toneladas de residuos plásticos generados a nivel mundial, solo se recicla alrededor del 10%.
Automatizar la identificación y la clasificación de residuos plásticos reduce significativamente el tiempo necesario en comparación con los métodos tradicionales, donde los trabajadores clasifican los artículos a mano. Los modelos de visión artificial pueden incluso segmentar plásticos blandos como envoltorios y bolsas, que son particularmente difíciles porque a menudo se enredan. Los modelos YOLO11 también se pueden entrenar a medida para segmentar diferentes tipos de plásticos. Aprenderemos más sobre cómo puede entrenar a medida un modelo YOLO11 en las siguientes secciones.
Fig. 4. Identificación de residuos plásticos utilizando Ultralytics YOLO11.
Segmentación YOLO11 en vehículos autónomos
Otro caso de uso interesante de la segmentación de instancias es en los coches autónomos. YOLO11 permite a los coches autónomos mejorar la seguridad de los pasajeros y la seguridad de otros en la carretera al reconocer con precisión los objetos a nivel de píxel. El sistema de cámaras a bordo del coche puede capturar imágenes de los alrededores y analizarlas utilizando YOLO11 y la segmentación de instancias. Cada objeto (peatones, semáforos, otros vehículos, etc.) dentro de la imagen se segmenta y se le da una etiqueta. Tal nivel de precisión da a los coches autónomos la capacidad de identificar todos y cada uno de los objetos a su alrededor.
Fig 5. Uso de YOLO11 y segmentación de instancias para identificar vehículos y peatones en la carretera.
Probando la segmentación de instancias con el modelo YOLO11
Ahora que hemos explorado la segmentación de instancias y hemos analizado algunas de sus aplicaciones, veamos cómo puede probarla utilizando el modelo Ultralytics YOLO11.
Hay dos maneras de hacer esto: puedes usar el paquete de Python de Ultralytics o el Ultralytics HUB. Exploraremos ambos, comenzando con el paquete de Python.
Ejecución de inferencias usando YOLO11
Ejecutar una inferencia implica usar el modelo para analizar datos nuevos, nunca antes vistos. Para ejecutar una inferencia utilizando el modelo de segmentación de instancias YOLO11 a través de código, necesitamos instalar el paquete de Ultralytics para Python usando pip, conda o docker. En caso de que enfrente algún problema durante la instalación, puede consultar nuestra Guía de Problemas Comunes para obtener ayuda con la resolución de problemas. Una vez que el paquete esté instalado, puede ejecutar el código que se muestra a continuación para cargar el modelo de segmentación de instancias YOLO11 y ejecutar predicciones en una imagen.
Fig. 6. Ejecutando una inferencia en una imagen usando YOLO11n-seg.
Entrenamiento de un modelo YOLO11 personalizado
Con la misma configuración de código, también puede entrenar un modelo YOLO11 personalizado. Al ajustar un modelo YOLO11, puede crear una versión personalizada del modelo que se adapte mejor a los requisitos de su proyecto específico. Por ejemplo, los minoristas pueden utilizar un modelo personalizado para segmentar con precisión las características físicas de un cliente para recomendar ropa que se ajuste correctamente. El fragmento de código siguiente muestra cómo cargar y entrenar un modelo YOLO11 para la segmentación de instancias. Puede empezar desde una configuración YAML o un modelo pre-entrenado, transferir pesos y entrenar en un conjunto de datos como COCO para lograr una segmentación eficaz.
Una vez completado, puede realizar inferencias utilizando el modelo personalizado para sus aplicaciones específicas. Utilizando la opción de exportación, también puede exportar su modelo personalizado a un formato diferente.
Segmentación de instancias YOLO11 en Ultralytics HUB
Ahora que hemos explorado la ejecución de inferencias y el entrenamiento personalizado de un modelo de segmentación de instancias YOLO11 a través del código, veamos una alternativa sin código: Ultralytics HUB. Ultralytics HUB es una plataforma de Vision AI intuitiva que simplifica el proceso de entrenamiento e implementación de modelos YOLO, incluidos los modelos de segmentación de instancias YOLO11.
Para ejecutar la inferencia en las imágenes, todo lo que tienes que hacer es: crear una cuenta, ir a la sección 'Modelos' y seleccionar la variante del modelo de segmentación de instancias YOLO11 que desees. Puedes subir una imagen y ver los resultados de la predicción en la sección de vista previa, como se muestra a continuación.
Fig. 7. Ejecución de inferencias en Ultralytics HUB.
Conclusiones clave
YOLO11 ofrece capacidades fiables de segmentación de instancias que abren un mundo de posibilidades en diversas industrias. Desde la mejora de la seguridad en los vehículos autónomos y la supervisión de la quema de gas en el sector del petróleo y el gas hasta la automatización de la clasificación de residuos en las instalaciones de reciclaje, la precisión a nivel de píxel de YOLO11 lo hace ideal para tareas de segmentación complejas.
Con opciones para el entrenamiento personalizado a través del paquete de Python Ultralytics y una configuración sin código a través de Ultralytics HUB, los usuarios pueden integrar YOLO11 sin problemas en sus flujos de trabajo. Ya sea para aplicaciones industriales, atención médica, comercio minorista o monitoreo ambiental, YOLO11 aporta flexibilidad y precisión para satisfacer diversas necesidades de segmentación.