Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Aprenda todo sobre el nuevo modelo Ultralytics YOLO11, sus características y aplicaciones en tiempo real en diversas industrias. Le guiaremos a través de todo lo que necesita saber.
El lunes 30 de septiembre, Ultralytics lanzó oficialmente Ultralytics YOLO11, el último avance en visión artificial, tras su debut en YOLO Vision 2024 (YV24), el evento híbrido anual de Ultralytics. La comunidad de la IA ha estado entusiasmada mientras se apresuran a explorar las capacidades del modelo. Con un procesamiento más rápido, mayor precisión y modelos optimizados tanto para dispositivos edge como para la implementación en la nube, YOLO11 redefine lo que es posible en aplicaciones de visión artificial en tiempo real.
En una entrevista, el fundador y CEO de Ultralytics, Glenn Jocher, compartió: “El mundo se está moviendo hacia la energía limpia, pero no lo suficientemente rápido. Queremos que nuestros modelos se puedan entrenar en menos épocas, con menos aumentos y menos datos, así que estamos trabajando duro en eso. El modelo de detección de objetos más pequeño, YOLO11n, tiene solo 2.6 millones de parámetros, aproximadamente el tamaño de un JPEG, lo cual es realmente una locura. El modelo de detección de objetos más grande, YOLO11x, tiene alrededor de 56 millones de parámetros, e incluso eso es increíblemente pequeño en comparación con otros modelos. Puedes entrenarlos en una GPU barata, como una GPU Nvidia de cinco años, solo con algo de entusiasmo y un poco de café”.
En este artículo, analizaremos más de cerca YOLO11, explorando sus características, mejoras, puntos de referencia de rendimiento y aplicaciones en el mundo real para ayudarle a comprender lo que este modelo puede hacer. ¡Empecemos!
Entendiendo YOLO11: Mejoras con respecto a versiones anteriores
YOLO11 es el último avance de la serie YOLO (You Only Look Once) de modelos de visión artificial, y ofrece mejoras significativas con respecto a versiones anteriores como YOLOv5 y YOLOv8. El equipo de Ultralytics ha incorporado comentarios de la comunidad e investigación de vanguardia para hacer que YOLO11 sea más rápido, más preciso y más eficiente. YOLO11 también admite las mismas tareas de visión artificial que YOLOv8, incluyendo la detección de objetos, la segmentación de instancias y la clasificación de imágenes. De hecho, los usuarios pueden cambiar fácilmente a YOLO11 sin necesidad de modificar los flujos de trabajo existentes.
Uno de los aspectos más destacados de YOLO11 es su rendimiento superior tanto en precisión como en velocidad en comparación con sus predecesores. Con un 22% menos de parámetros que YOLOv8m, YOLO11m alcanza una precisión media promedio (mAP) más alta en el conjunto de datos COCO, lo que significa que puede detectar objetos de forma más precisa y eficiente. En términos de velocidad de procesamiento, YOLO11 supera a los modelos anteriores, lo que lo hace ideal para aplicaciones en tiempo real, donde la detección y la respuesta rápidas son críticas, y cada milisegundo cuenta.
El gráfico de evaluación comparativa a continuación ilustra cómo YOLO11 se destaca de los modelos anteriores. En el eje horizontal, muestra la Precisión Media (AP) de la Caja COCO, que mide la precisión de la detección de objetos. El eje vertical muestra la latencia utilizando TensorRT10 FP16 en una GPU NVIDIA T4, lo que indica la rapidez con la que el modelo procesa los datos.
Fig. 1. YOLO11 proporciona capacidades de detección de objetos en tiempo real de última generación.
Lanzamiento del modelo YOLO11: Opciones de código abierto y empresariales
Por primera vez, Ultralytics presenta modelos empresariales, lo que marca un hito importante en nuestra oferta de productos, y estamos entusiasmados de compartir estas nuevas innovaciones con nuestros usuarios. YOLO11 presenta cinco modelos patentados diseñados específicamente para casos de uso comercial. Estos modelos empresariales, que estarán disponibles el próximo mes, están entrenados con el nuevo conjunto de datos patentado de Ultralytics, que consta de más de 1 millón de imágenes, lo que ofrece modelos pre-entrenados más robustos. Están diseñados para aplicaciones exigentes del mundo real, como el análisis de imágenes médicas y el procesamiento de imágenes de satélite, donde la detección precisa de objetos es crucial.
Explorando las características de la próxima generación de YOLO11
Ahora que hemos analizado lo que ofrece YOLO11, echemos un vistazo a lo que hace que YOLO11 sea tan especial.
Uno de los retos clave en el desarrollo de YOLO11 fue encontrar el equilibrio adecuado entre prioridades contrapuestas: hacer que los modelos fueran más pequeños, más rápidos y más precisos. Como explicó Glenn Jocher, fundador y CEO de Ultralytics, “Trabajar en la investigación y el desarrollo de YOLO es realmente un desafío porque quieres ir en tres direcciones diferentes: quieres hacer los modelos más pequeños, quieres que sean más precisos, pero también quieres que sean más rápidos en diferentes plataformas como CPU y GPU. Todos estos son intereses contrapuestos, por lo que tienes que llegar a acuerdos y elegir dónde hacer los cambios”. A pesar de estos retos, YOLO11 logra un equilibrio impresionante, ofreciendo mejoras tanto en velocidad como en precisión con respecto a versiones anteriores como YOLOv8.
Fig. 3. Un ejemplo del uso de YOLO11 para la detección de objetos.
YOLO11 aporta mejoras sustanciales, como una extracción de características optimizada con una arquitectura de backbone y cuello de botella rediseñada, lo que conduce a una detección de objetos más precisa. El modelo también está optimizado para la velocidad y la eficiencia, ofreciendo tiempos de procesamiento más rápidos sin dejar de mantener una alta precisión. Además de estas ventajas, YOLO11 es altamente adaptable en diferentes entornos, funcionando a la perfección en dispositivos edge, plataformas en la nube y sistemas que utilizan GPU NVIDIA. Esta adaptabilidad la convierte en una opción ideal para los usuarios que necesitan opciones de implementación flexibles en diversas configuraciones de hardware, desde dispositivos móviles hasta servidores a gran escala.
Aplicaciones YOLO11 en tiempo real
La versatilidad de YOLO11 lo convierte en una herramienta confiable en muchas industrias, especialmente cuando se trata de casos de uso complejos. Por ejemplo, funciona a la perfección en dispositivos periféricos y se puede utilizar para aplicaciones que requieren análisis en tiempo real en entornos con potencia informática limitada. Un excelente ejemplo de esto es la conducción autónoma, donde los vehículos deben tomar decisiones en fracciones de segundo para mantener a todos seguros. YOLO11 ayuda a detectar y analizar objetos en la carretera, como peatones u otros automóviles, incluso en condiciones difíciles, como poca luz o cuando las cosas están parcialmente ocultas. La detección rápida y precisa ayuda a prevenir accidentes y garantiza que los vehículos puedan navegar de forma segura.
Fig. 4. Glenn Jocher en el escenario de YV24, hablando sobre las aplicaciones de YOLO11.
Otro ejemplo interesante del alcance de YOLO11 es su capacidad para manejar bounding boxes orientados (OBB). Es esencial para detectar objetos que no están perfectamente alineados. La detección de objetos OBB es una característica que es especialmente útil en industrias como la agricultura, la cartografía y la vigilancia, donde las imágenes a menudo contienen objetos rotados como cultivos o edificios en imágenes aéreas o de satélite. A diferencia de los modelos tradicionales, YOLO11 puede identificar objetos en cualquier ángulo y proporcionar resultados mucho más precisos para tareas que requieren precisión.
YOLO11 para desarrolladores de IA: Pruébalo tú mismo
Comenzar con YOLO11 es sencillo y accesible, tanto si prefiere la programación como una opción sin código. Para trabajar con YOLO11 mediante código, puede utilizar el paquete de Python de Ultralytics para entrenar e implementar modelos fácilmente. Si prefiere un enfoque sin código, Ultralytics HUB le permite probar YOLO11 con solo unos clics.
Recorrido del código de YOLO11
Para usar YOLO11 con Python, primero tendrás que instalar el paquete Ultralytics. Dependiendo de tus preferencias, puedes hacerlo usando pip, conda o Docker. Para obtener instrucciones detalladas y las mejores prácticas relacionadas con el proceso de instalación, asegúrate de consultar nuestra Guía de instalación de Ultralytics. Mientras instalas los paquetes necesarios para YOLO11, si encuentras alguna dificultad, consulta nuestra Guía de problemas comunes para obtener soluciones y consejos.
Fig. 5. Uso de YOLO11 a través del paquete Ultralytics.
Para los usuarios que prefieren un enfoque sin código, Ultralytics HUB proporciona una manera fácil de entrenar e implementar modelos YOLO11 con solo unos pocos clics. Para comenzar con HUB, simplemente cree una cuenta en la plataforma Ultralytics HUB y podrá comenzar a entrenar y administrar sus modelos a través de una interfaz intuitiva.
YOLO11: Moldeando el futuro de la visión artificial
La comunidad de IA está en constante avance en el campo de la visión artificial, esforzándose por desarrollar modelos más rápidos y precisos para aplicaciones del mundo real. Ultralytics YOLO11 es un hito importante en este esfuerzo, aportando mayor velocidad, precisión y flexibilidad. Está diseñado para aplicaciones en tiempo real y en el borde, lo que lo hace ideal para industrias como la atención médica y la conducción autónoma. Ya sea que esté utilizando el paquete de Python de Ultralytics o Ultralytics Hub sin código, YOLO11 simplifica las tareas complejas de Vision AI. Ofrece potentes capacidades de visión artificial, lo que lo convierte en una excelente opción para desarrolladores y empresas.