Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Descubra cómo la creación de productos inteligentes con YOLO26 y la IA visual permite la detección en tiempo real, la automatización inteligente y experiencias de producto escalables y receptivas.
Amplíe sus proyectos de visión artificial con Ultralytics.
Cada día se graban miles de horas de vídeo con cámaras integradas en dispositivos, máquinas e infraestructuras públicas. La mayor parte de ese material se almacena, se examina por encima o se revisa solo cuando ocurre algún problema.
A menudo, se dispone de datos visuales, pero falta la capacidad de interpretarlos en tiempo real. A medida que los productos están cada vez más conectados y basados en datos, esta limitación se hace más evidente.
Los usuarios esperan que los sistemas hagan algo más que registrar eventos o seguir instrucciones fijas. Por ejemplo, esperan que los productos inteligentes reconozcan lo que está sucediendo y respondan de inmediato, sin esperar revisiones manuales ni depender de conjuntos de reglas rígidas.
Los recientes avances en inteligencia artificial están ayudando a cerrar esa brecha. En concreto, la visión artificial permite a las máquinas interpretar imágenes y vídeos, lo que permite a los sistemas analizar escenas y responder en tiempo real.
Sin embargo, incorporar esta capacidad a un producto requiere modelos que sean rápidos y fiables. Los modelos de visión artificial de última generación, como Ultralytics , se han diseñado con este fin y ofrecen la velocidad y la precisión necesarias para su implementación en tiempo real.
YOLO26 admite tareas de visión básicas, como la detección de objetos, la segmentación de instancias y el seguimiento de objetos, lo que permite a los productos interpretar datos visuales y responder de forma inteligente.
Fig. 1. Detección de objetos en una imagen utilizando YOLO26 (Fuente)
En este artículo, exploraremos cómo se pueden utilizar la visión artificial y Ultralytics para crear productos más inteligentes y respaldar la automatización inteligente en aplicaciones del mundo real. ¡Empecemos!
Las deficiencias del desarrollo tradicional de productos
Antes de profundizar en cómo la visión artificial está ayudando a crear productos más inteligentes, echemos un vistazo a los retos a los que se enfrentan los equipos cuando dependen de sistemas tradicionales basados en reglas y algoritmos antiguos.
Estos son algunos de los principales retos del desarrollo tradicional de productos:
Sistemas rígidos basados en reglas: la lógica codificada puede funcionar en entornos controlados, pero las situaciones del mundo real rara vez son predecibles. Pequeños cambios en la iluminación, el ángulo de la cámara o la apariencia de los objetos pueden romper rápidamente las reglas predefinidas y reducir la precisión.
Escasa adaptabilidad a la variabilidad del mundo real: los sistemas tradicionales no se ajustan bien a situaciones nuevas o inesperadas. Las actualizaciones suelen requerir ajustes manuales y optimizaciones repetidas, lo que ralentiza las mejoras del producto y aumenta el esfuerzo de mantenimiento.
Limitaciones de escalabilidad: a medida que aumenta el volumen de datos de imágenes y vídeos, los antiguos procesos de procesamiento de imágenes tienen dificultades para seguir el ritmo. El procesamiento se vuelve más lento, lo que dificulta mantener el rendimiento en tiempo real en todas las transmisiones de vídeo.
Alta latencia en escenarios en tiempo real: muchos enfoques tradicionales no pueden procesar flujos visuales continuos con la suficiente rapidez. Los retrasos en las salidas debilitan la automatización y reducen la capacidad de respuesta general.
Requisitos informáticos costosos: para lograr una precisión aceptable, a menudo se necesitan importantes recursos de hardware, como unidades de procesamiento gráfico (GPU) dedicadas, lo que aumenta los costes de infraestructura.
El papel de la visión artificial en la creación de productos más inteligentes
A continuación, veamos cómo la visión artificial puede contribuir a un comportamiento más inteligente de los productos.
La mayoría de los productos conectados actuales ya recopilan datos visuales como parte de sus procesos operativos normales. Las cámaras están integradas en diversos dispositivos, instaladas en espacios físicos y conectadas a través de sistemas de Internet de las cosas (IoT).
Como resultado, las imágenes y los vídeos se capturan constantemente en segundo plano. El reto no es recopilar estos datos.
Lo complicado es dar sentido a los datos recopilados en tiempo real. Sin inteligencia visual, las imágenes simplemente se almacenan y se revisan más tarde, a menudo después de que ya se haya producido un problema.
La visión artificial cambia eso. Mediante el uso de redes neuronales entrenadas para reconocer patrones, los sistemas pueden analizar imágenes y vídeos en tiempo real. En lugar de basarse en reglas fijas o comprobaciones manuales, los productos pueden interpretar lo que está sucediendo en una escena y responder a medida que se producen los eventos.
Para incorporar esta capacidad visual a los productos, los equipos pueden confiar en modelos eficientes de visión artificial, como Ultralytics . YOLO26 es compatible con tareas clave de visión y puede ayudar a los productos a interpretar la información visual con la rapidez suficiente como para permitir la toma de decisiones en tiempo real.
Los componentes básicos de los productos basados en la visión
A continuación, se ofrece un breve resumen de cómo las tareas de visión artificial pueden contribuir a crear productos más inteligentes:
Detección de objetos: esta tarea permite identificar y localizar objetos relevantes dentro de cada fotograma utilizando un cuadro delimitador y asignar una puntuación de confianza, lo que proporciona una comprensión clara de lo que hay en una imagen.
Seguimiento de objetos: se puede utilizar para seguir objetos específicos a lo largo de varios fotogramas, lo que permite a un sistema de visión comprender el movimiento y los cambios a lo largo del tiempo.
Clasificación de imágenes: esta tarea asigna una etiqueta a toda una imagen basándose en su contenido principal. Clasifica escenas o identifica condiciones específicas dentro del encuadre.
Segmentación de instancias: puede delinear con precisión los objetos a nivel de píxeles, lo que permite a los productos interpretar mejor las formas, los límites y las relaciones espaciales.
Estimación de la postura: esta tarea detecta puntos clave en el cuerpo humano u otros objetos articulados. Captura la postura, el movimiento y las interacciones físicas en tiempo real.
Detección de cuadros delimitadores orientados (OBB): puede detect utilizando cuadros delimitadores girados en lugar de los horizontales estándar. Mejora la precisión de la localización cuando los objetos aparecen en ángulos o en entornos muy densos.
Cuando estas capacidades se aplican a datos visuales continuos, los productos pueden responder más rápido, automatizarse de forma más fiable y ofrecer experiencias que se perciben como conscientes en lugar de reactivas. En lugar de esperar a que los eventos se revisen más tarde, los sistemas pueden comprender y actuar en el momento.
Cómo los modelos de visión en tiempo real permiten un comportamiento inteligente de los productos
A medida que aprendes más sobre los productos basados en la visión, es posible que te preguntes cómo un sistema pasa de simplemente grabar vídeo a responder realmente en tiempo real.
Comienza por reconocer lo que hay delante de la cámara. A medida que se transmite el vídeo, un modelo de visión analiza cada fotograma e identifica los elementos importantes, como objetos o personas específicos. En lugar de reaccionar a cada movimiento, el sistema se centra únicamente en las señales relevantes.
Otro aspecto clave es la velocidad. Los sistemas en tiempo real deben procesar cada fotograma de forma rápida y coherente, garantizando que la detección y la toma de decisiones se produzcan sin retrasos apreciables.
Por ejemplo, la familia de modelos Ultralytics YOLO You Only Look Once) se creó para procesar datos visuales en tiempo real. Modelos como Ultralytics se basan en versiones anteriores, como Ultralytics YOLOv5, Ultralytics YOLOv8y Ultralytics YOLO11, incorporando mejoras arquitectónicas, optimizaciones de rendimiento y mejoras de eficiencia. El resultado es una mayor velocidad y precisión, incluso en condiciones reales exigentes.
Cuando se integran en un producto, estos modelos se ejecutan continuamente en segundo plano, analizando cada fotograma a medida que llega. El sistema comprueba las condiciones predefinidas y, una vez cumplidas, puede activar instantáneamente una alerta, actualizar un flujo de trabajo o iniciar una acción.
Esto hace que los sistemas basados en la visión sean más receptivos, escalables y prácticos para su integración en entornos que van desde la robótica y los vehículos autónomos hasta los sistemas domésticos inteligentes y de seguridad. Para los líderes empresariales, esto se traduce en respuestas más rápidas, menos comprobaciones manuales y una automatización que se percibe como fiable en lugar de reactiva.
Uso de YOLO26 para potenciar la inteligencia visual en tiempo real en los productos
YOLO Ultralytics , incluido YOLO26, están disponibles de forma inmediata como modelos preentrenados. Esto significa que ya están entrenados con conjuntos de datos grandes y ampliamente utilizados, como el COCO .
Gracias a este entrenamiento previo, YOLO26 puede reconocer inmediatamente objetos comunes del mundo real. Esto proporciona a los equipos de producto un punto de partida práctico, lo que significa que pueden crear características visuales sin tener que entrenar un modelo desde cero.
Para necesidades de productos más específicas, estos modelos preentrenados pueden ajustarse aún más utilizando datos específicos del dominio con anotaciones de alta calidad.
Por ejemplo, pensemos en un restaurante equipado con cámaras en el techo. Un modelo de IA de visión entrenado a medida, como YOLO26, puede detect personas hay dentro del local. Puede identificar qué mesas están ocupadas y qué sillas están vacías.
Fig. 2. YOLO26 permite la detección en tiempo real de personas, espacios abiertos y cajas registradoras con personal en tiendas minoristas. (Fuente)
En este tipo de escenario, YOLO26 actúa como un motor visual que se ejecuta continuamente en segundo plano. Los equipos también pueden implementar estos modelos en dispositivos periféricos, dependiendo de las necesidades de rendimiento y los objetivos de eficiencia energética.
Aplicaciones reales de YOLO en productos inteligentes
Ahora que comprendemos mejor cómo funcionan los modelos de visión en tiempo real, veamos cómo se pueden aplicarYOLO Ultralytics en productos inteligentes para diferentes casos de uso, con el fin de hacerlos más conscientes, receptivos y capaces de actuar en función de lo que ven.
Inteligencia sobre productos sanitarios con YOLO
En lo que respecta a la formación quirúrgica en el ámbito sanitario, a menudo se revisan manualmente horas de grabaciones de procedimientos para evaluar el manejo de las herramientas y el flujo de trabajo. Este proceso puede llevar mucho tiempo y depende en gran medida de la observación humana.
Con un modelo de visión YOLO integrado en el sistema, las transmisiones de vídeo pueden analizarse automáticamente a medida que se llevan a cabo los procedimientos. El modelo puede detect instrumentos detect en tiempo real e identificar dónde y cuándo se utilizan.
Esto permite un registro estructurado, análisis mejorados e información de alto rendimiento sin necesidad de revisiones manuales constantes. De hecho, las investigaciones realizadas con el YOLO11 , predecesor del último modelo YOLO26, demostraron que la detección laparoscópica de instrumentos en tiempo real podía funcionar eficazmente incluso en sistemas integrados.
Fig. 3. Detección de instrumentos laparoscópicos en tiempo real mediante YOLO Fuente)
El modelo mantuvo una alta precisión al tiempo que funcionaba con la rapidez suficiente para entornos quirúrgicos en directo. Esto demuestra cómo el aprendizaje profundo puede proporcionar una retroalimentación visual fiable en tiempo real durante las intervenciones.
Creación de experiencias minoristas inteligentes YOLO
Todos nos hemos parado frente a un estante abarrotado en el supermercado tratando de encontrar el producto adecuado. Muchos artículos se parecen, las etiquetas son pequeñas y los productos a menudo están colocados en el lugar equivocado.
Para los minoristas, esto dificulta la visibilidad de los estantes en tiempo real. Los modelos de detección YOLO Vision AI y YOLO pueden ayudar a los sistemas de las tiendas a comprender qué hay realmente en los estantes a través de las imágenes de las cámaras y las transmisiones de vídeo en directo. Esto reduce la dependencia de los escáneres de códigos de barras y las comprobaciones manuales, lo que hace que la supervisión de los estantes sea más precisa y ágil.
Fig. 4. Detección y segmentación de productos en los estantes de los supermercados con YOLO26.
Con este nivel de precisión, los minoristas ya no tienen que depender únicamente de comprobaciones manuales periódicas. Las estanterías pueden supervisarse de forma continua a través de vídeo en directo.
Se puede señalar inmediatamente cuando hay poco stock, se pueden localizar más rápidamente los productos extraviados y los procesos de pago pueden realizarse con mayor fluidez. Esto proporciona a los minoristas un mejor control operativo, al tiempo que crea una experiencia de compra más fluida para los clientes.
Visión artificial y navegación autónoma
Los sistemas autónomos pueden ser muy eficientes, pero a menudo dependen de rutas fijas o coordenadas preestablecidas. Si bien esto funciona en entornos estables, las condiciones del mundo real rara vez permanecen iguales.
Las soluciones de visión artificial, basadas en modelos de aprendizaje profundo, permiten a las máquinas comprender su entorno y adaptarse en tiempo real. Gracias a la visión artificial combinada con algoritmos adaptativos, los sistemas pueden responder a los cambios a medida que se producen, en lugar de depender de instrucciones rígidas y preprogramadas.
Entonces, ¿cómo funciona esto en entornos reales? Tomemos el ejemplo de un robot que opera en un almacén. Las cámaras capturan su entorno de forma continua y un modelo de visión realiza una detección de objetos en tiempo real para identificar obstáculos, estantes y caminos.
Estas detecciones facilitan la localización, ayudando al robot a determinar su posición exacta dentro de las instalaciones. Basándose en esta información visual, los algoritmos de optimización ajustan su ruta al instante, lo que le permite navegar de manera eficiente y mantener una automatización fluida incluso cuando cambian las condiciones.
Supervisión de infraestructuras y detección más inteligente de defectos
Las líneas eléctricas y los equipos de la red necesitan inspecciones periódicas para garantizar su seguridad y fiabilidad. En la mayoría de los casos, estas inspecciones de servicios públicos siguen implicando comprobaciones manuales, que requieren tiempo y son difíciles de gestionar en áreas extensas o remotas.
Vision AI ofrece una forma más sencilla de supervisar las infraestructuras sin depender únicamente de visitas programadas in situ. Modelos como YOLO26 pueden detect en los aislantes de las líneas eléctricas, incluyendo grietas, corrosión o daños visibles, directamente a partir de imágenes captadas en condiciones reales al aire libre.
Al analizar datos visuales en tiempo real, estos sistemas pueden señalar posibles problemas que, de otro modo, podrían pasar desapercibidos. La identificación temprana de estos problemas reduce el riesgo de averías en los equipos, minimiza las interrupciones inesperadas y favorece unas operaciones de mantenimiento más proactivas.
Medición del retorno de la inversión de los productos inteligentes basados en la visión
Para los líderes empresariales, la visión artificial no se limita al rendimiento técnico. Se trata de un impacto empresarial cuantificable.
Cuando se implementan de forma reflexiva, los sistemas basados en la visión pueden mejorar la eficiencia, reducir los costes y aumentar la precisión. Estas ventajas también contribuyen a mejorar la experiencia del usuario y a reforzar el rendimiento general.
A continuación se indican algunas áreas en las que ese impacto se hace evidente:
Reducción del esfuerzo manual: los sistemas de visión automatizan las tareas repetitivas de inspección, supervisión y verificación, lo que reduce la dependencia de los procesos manuales y libera a los equipos para que puedan centrarse en tareas más estratégicas.
Ciclos de decisión más rápidos: el análisis visual en tiempo real permite a los sistemas detect o activar acciones al instante, lo que reduce los tiempos de respuesta y mantiene el buen funcionamiento de las operaciones.
Menos errores operativos: la detección automatizada aporta consistencia. Al reducir la supervisión humana en las tareas rutinarias, las organizaciones suelen observar menos errores y resultados más fiables.
Mayor compromiso por parte de los usuarios: los productos que pueden ver y responder de forma inteligente resultan más interactivos y relevantes. Esto genera una mayor confianza por parte de los usuarios, mejores experiencias y una mayor adopción a largo plazo.
Conclusiones clave
La visión artificial permite a los productos interpretar información visual en tiempo real, lo que favorece una automatización más inteligente y experiencias más receptivas. Con capacidades como la detección, el seguimiento y la segmentación, los sistemas van más allá de las reglas básicas para tomar decisiones contextuales. Modelos eficientes como Ultralytics hacen que sea práctico crear productos escalables y competitivos basados en la visión.