Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Explore cómo el nuevo modelo YOLO11 de Ultralytics se puede utilizar para la detección de objetos y lograr una mayor precisión en diversas aplicaciones en una amplia gama de industrias.
La visión artificial es un campo de la inteligencia artificial (IA) que ayuda a las máquinas a interpretar y comprender la información visual para permitir tareas esenciales como la detección de objetos. A diferencia de la clasificación de imágenes, la detección de objetos no solo identifica qué objetos hay en una imagen, sino que también localiza sus ubicaciones exactas. Esto la convierte en una herramienta fundamental para aplicaciones de IA visual como los coches autónomos, los sistemas de seguridad en tiempo real y la automatización de almacenes.
Con el tiempo, la tecnología de detección de objetos se ha vuelto más avanzada y fácil de usar. Un gran paso adelante se anunció en el evento híbrido anual de Ultralytics, YOLO Vision 2024 (YV24), con el lanzamiento del modelo Ultralytics YOLO11. YOLO11 mejora la precisión y el rendimiento al tiempo que admite las mismas tareas que YOLOv8, lo que facilita a los usuarios de modelos anteriores la transición sin problemas.
Fig. 1. Un ejemplo del uso del modelo YOLO11 de Ultralytics para la detección de objetos.
En este artículo, analizaremos qué es la detección de objetos, en qué se diferencia de otras tareas de visión artificial y exploraremos sus aplicaciones en el mundo real. También te guiaremos sobre cómo utilizar el modelo YOLO11 con el paquete de Python de Ultralytics y la plataforma Ultralytics HUB. ¡Empecemos!
¿Qué es la detección de objetos?
La detección de objetos es una tarea fundamental en la visión artificial que va más allá de la simple identificación de objetos en una imagen. A diferencia de la clasificación de imágenes, que solo determina si un objeto específico está presente, la detección de objetos reconoce múltiples objetos y localiza sus ubicaciones exactas mediante cuadros delimitadores.
Por ejemplo, puede identificar y localizar rostros en una foto grupal, coches en una calle concurrida o productos en el estante de una tienda. La combinación del reconocimiento y la localización de objetos la hace especialmente útil para aplicaciones como la vigilancia, el monitoreo de multitudes y la gestión automatizada de inventarios.
Fig. 2. Uso de YOLO11 para detectar rostros.
Lo que distingue a la detección de objetos de otras tareas como la segmentación semántica o la segmentación de instancias es su enfoque y eficiencia.
La segmentación semántica etiqueta cada píxel de una imagen, pero no diferencia entre objetos individuales del mismo tipo (por ejemplo, todos los rostros en una foto se agruparían como "rostro"). La segmentación de instancias va un paso más allá al separar cada objeto y delinear su forma exacta, incluso para objetos de la misma clase.
Sin embargo, la detección de objetos proporciona un enfoque más ágil al identificar y clasificar objetos al tiempo que marca sus posiciones. Esto la hace ideal para tareas en tiempo real como la detección de rostros en imágenes de seguridad o la identificación de obstáculos para vehículos autónomos.
Aplicaciones de YOLO11 y la detección de objetos
Las funciones avanzadas de detección de objetos de YOLO11 la hacen útil en muchos sectores. Echemos un vistazo a algunos ejemplos.
Uso de YOLO11 para el análisis minorista
YOLO11 y la detección de objetos están redefiniendo el análisis minorista al hacer que la gestión de inventario y el monitoreo de estantes sean más eficientes y precisos. La capacidad del modelo para detectar objetos de forma rápida y fiable ayuda a los minoristas a realizar un seguimiento de los niveles de existencias, organizar los estantes y reducir los errores en los recuentos de inventario.
Por ejemplo, YOLO11 puede detectar artículos específicos como gafas de sol en el estante de una tienda. Pero, ¿por qué querría un minorista monitorear un estante? Mantener los estantes abastecidos y organizados es vital para garantizar que los clientes puedan encontrar lo que necesitan, lo que impacta directamente en las ventas. Al monitorear los estantes en tiempo real, los minoristas pueden detectar rápidamente cuándo los artículos se están agotando, están fuera de lugar o están sobrecargados, lo que les ayuda a mantener una exhibición organizada y atractiva que mejora la experiencia de compra.
Fig. 3. Un ejemplo del uso de YOLO11 para detectar productos en estantes.
YOLO11 en aplicaciones de ciudades inteligentes
Una ciudad bulliciosa depende de un flujo de tráfico fluido y calles seguras para funcionar de manera eficiente, y YOLO11 puede ayudar a que esto sea posible. De hecho, muchas aplicaciones de ciudades inteligentes se pueden integrar con YOLO11.
Un caso interesante implica el uso de la detección de objetos para identificar las matrículas de los vehículos en movimiento. Al hacerlo, YOLO11 puede admitir una recaudación de peajes más rápida, una mejor gestión del tráfico y una aplicación de la regulación más rápida.
Fig. 4. Uso de la detección de objetos y YOLO11 para detectar matrículas.
La información obtenida de los sistemas de IA de visión que monitorean las carreteras puede alertar a las autoridades sobre infracciones de tráfico o congestión antes de que se conviertan en problemas mayores. YOLO11 también puede detectar peatones y ciclistas, lo que hace que las calles sean más seguras y eficientes para todos.
De hecho, la capacidad de YOLO11 para procesar datos visuales la convierte en una herramienta poderosa para mejorar la infraestructura de la ciudad. Por ejemplo, puede ayudar a optimizar la sincronización de los semáforos analizando el movimiento de vehículos y peatones. También puede mejorar la seguridad en las zonas escolares al detectar niños y alertar a los conductores para que reduzcan la velocidad. Con YOLO11, las ciudades pueden tomar medidas proactivas para abordar los desafíos y crear un entorno más eficiente para todos.
Detección de video en tiempo real con YOLO11: aumento de la accesibilidad
La detección de objetos en tiempo real se refiere a la capacidad de un sistema para identificar y clasificar objetos en una transmisión de video en vivo a medida que aparecen. YOLO11 está diseñado para un rendimiento superior en tiempo real y sobresale en el soporte de esta capacidad. Sus aplicaciones van más allá de la simple optimización de los procesos: también puede ayudar a crear un mundo más inclusivo y accesible.
Por ejemplo, YOLO11 puede ayudar a las personas con discapacidad visual identificando objetos en tiempo real. Según las detecciones, se pueden proporcionar descripciones de audio, lo que ayuda a los usuarios a navegar por su entorno con mayor independencia.
Consideremos a una persona con discapacidad visual que compra alimentos. Elegir los artículos correctos puede ser un desafío, pero YOLO11 puede ayudar. A medida que colocan los artículos en su carrito, se podría usar un sistema integrado con YOLO11 para identificar cada artículo, como plátanos, aguacates o un cartón de leche, y proporcionar descripciones de audio en tiempo real. Esto les permite confirmar sus elecciones y asegurarse de que tienen todo lo que necesitan. Al reconocer los artículos cotidianos, YOLO11 puede simplificar la compra.
Fig. 5. La detección de objetos puede ayudar a hacer el mundo más accesible para las personas con discapacidad visual.
Guía paso a paso para la detección de objetos con YOLO11
Ahora que hemos cubierto los conceptos básicos de la detección de objetos y sus diversas aplicaciones, vamos a profundizar en cómo puedes empezar con el modelo YOLO11 de Ultralytics para tareas como la detección de objetos.
Hay dos maneras sencillas de usar YOLO11: a través del paquete de Python de Ultralytics o de Ultralytics HUB. Exploremos ambos métodos, comenzando con el paquete de Python.
Ejecución de inferencias usando YOLO11
La inferencia es cuando un modelo de IA analiza datos nuevos y no vistos para hacer predicciones, clasificar información o proporcionar perspectivas basadas en lo que aprendió durante el entrenamiento. Con respecto a la detección de objetos, eso significa identificar y localizar objetos específicos dentro de una imagen o video, dibujar cuadros delimitadores alrededor de ellos y etiquetarlos según el entrenamiento del modelo.
Para realizar inferencias utilizando el modelo de detección de objetos YOLO11, primero deberás instalar el paquete de Python de Ultralytics a través de pip, conda o Docker. Si encuentras algún problema de instalación, consulta la guía de solución de problemas para obtener consejos y trucos que te ayudarán a resolverlos. Una vez instalado, puedes utilizar el siguiente código para cargar el modelo de detección de objetos YOLO11 y hacer predicciones sobre una imagen.
Fig. 6. Ejecución de una inferencia en una imagen usando YOLO11n.
Entrenamiento de un modelo YOLO11 personalizado
YOLO11 también admite el entrenamiento personalizado para adaptarse mejor a tus casos de uso específicos. Al ajustar el modelo, puedes adaptarlo para detectar objetos relevantes para tu proyecto. Por ejemplo, al utilizar la visión artificial en la atención médica, se podría utilizar un modelo YOLO11 entrenado a medida para detectar anomalías específicas en imágenes médicas, como tumores en resonancias magnéticas o fracturas en radiografías, lo que ayudaría a los médicos a realizar diagnósticos más rápidos y precisos.
El siguiente fragmento de código muestra cómo cargar y entrenar un modelo YOLO11 para la detección de objetos. Puedes empezar desde un archivo de configuración YAML o un modelo pre-entrenado, transferir pesos y entrenar con conjuntos de datos como COCO para obtener capacidades de detección de objetos más refinadas.
from ultralytics import YOLO
# Load a modelmodel = YOLO("yolo11n.yaml") # build a new model from YAMLmodel = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights# Train the modelresults = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Después de entrenar un modelo, también puedes exportarlo en varios formatos para su implementación en diferentes entornos.
Detección de objetos YOLO11 en Ultralytics HUB
Para aquellos que buscan una alternativa sin código, Ultralytics HUB proporciona una plataforma de Visión Artificial fácil de usar para entrenar e implementar modelos YOLO, incluyendo YOLO11.
Para ejecutar la detección de objetos en imágenes, simplemente crea una cuenta, navega a la sección 'Modelos' y selecciona la variante del modelo de detección de objetos YOLO11. Carga tu imagen y la plataforma mostrará los objetos detectados en una sección de vista previa.
Fig. 7. Ejecución de inferencias en Ultralytics HUB.
Al combinar la flexibilidad del paquete de Python con la facilidad del HUB, YOLO11 hace que sea sencillo para los desarrolladores y las empresas aprovechar el poder de la tecnología avanzada de detección de objetos.
Conclusiones clave
YOLO11 establece un nuevo estándar en la detección de objetos, combinando alta precisión con versatilidad para satisfacer las necesidades de diversas industrias. Desde la mejora del análisis minorista hasta la gestión de la infraestructura de ciudades inteligentes, YOLO11 está diseñado para un rendimiento fiable y en tiempo real en innumerables aplicaciones.
Con opciones para el entrenamiento personalizado y una interfaz fácil de usar a través de Ultralytics HUB, la integración de YOLO11 en tus flujos de trabajo nunca ha sido tan sencilla. Tanto si eres un desarrollador que explora la visión artificial como si eres una empresa que busca innovar con la IA, YOLO11 ofrece las herramientas que necesitas para tener éxito.