Descubra por qué los FPS en la visión artificial son importantes y cómo afectan a la detección de objetos en tiempo real, el análisis de vídeo y las aplicaciones impulsadas por IA.
Descubra por qué los FPS en la visión artificial son importantes y cómo afectan a la detección de objetos en tiempo real, el análisis de vídeo y las aplicaciones impulsadas por IA.
Ver una repetición a cámara lenta de tu momento deportivo favorito, donde cada detalle es claro, es muy diferente a ver imágenes de vigilancia que generalmente se ven entrecortadas y difíciles de seguir. El detalle técnico clave detrás de estas diferencias es FPS, o Frames Per Second (Fotogramas por Segundo), que se refiere al número de fotogramas que se muestran por segundo en un video. Un FPS más alto resulta en un movimiento suave y realista, mientras que un FPS más bajo puede conducir a imágenes entrecortadas y con menos detalles.
Este concepto impacta directamente en la visión artificial, una rama de la IA que permite a las máquinas interpretar y analizar datos visuales de forma similar a como lo hacen los humanos. En la visión artificial, un FPS más alto significa que los sistemas pueden capturar más información cada segundo, mejorando la precisión de la detección y el seguimiento de objetos en tiempo real.
En este artículo, exploraremos los aspectos técnicos de los FPS y cómo se relacionan con las aplicaciones de visión artificial. ¡Empecemos!
Digamos que está jugando a un juego de carreras: a 60 FPS, cada giro se siente suave y receptivo, pero a 20 FPS, los controles se retrasan, lo que dificulta esquivar los obstáculos. En pocas palabras, puede pensar en FPS como el número de imágenes fijas que se muestran cada segundo. Más imágenes por segundo hacen que el movimiento se vea suave y natural, mientras que menos imágenes pueden hacer que se vea entrecortado.
Al igual que en los juegos, los FPS son una parte clave de las aplicaciones de visión artificial. Un FPS más alto permite rastrear objetos usando la IA de visión sin problemas, mientras que un FPS más bajo puede resultar en la pérdida de detalles.
Por ejemplo, en el análisis deportivo, las cámaras impulsadas por IA necesitan un FPS más alto para poder rastrear pases rápidos, movimientos de jugadores y trayectorias de la pelota. Un FPS más bajo podría llevar a perderse un contacto importante entre el pie y la pelota o un cambio rápido de dirección, lo que afectaría la precisión del análisis.
Del mismo modo, en el monitoreo del tráfico, los sistemas dependen de un alto FPS para detectar vehículos que exceden la velocidad y cambios de carril en tiempo real. Elegir el FPS correcto depende de los requisitos específicos de cada aplicación de visión artificial, equilibrando el rendimiento, la eficiencia y la claridad visual.

Ahora que hemos analizado qué son los FPS y cómo se utilizan en la visión artificial, profundicemos en sus aspectos técnicos, comenzando con cómo calcular los FPS de un video.
Dividir el número total de fotogramas por la duración en segundos proporciona los FPS de un vídeo. Por ejemplo, si un vídeo tiene 96 fotogramas en 4 segundos, se calcula a 24 FPS, lo que significa que se muestran 24 imágenes cada segundo, mientras que 32 fotogramas en 4 segundos dan como resultado 8 FPS. Se pueden utilizar bibliotecas de Python como OpenCV para extraer metadatos de vídeo, contar fotogramas y calcular automáticamente los FPS, lo que agiliza el proceso de análisis de vídeo.

Sin embargo, calcular los FPS por sí solo no es suficiente para tomar decisiones técnicas al desarrollar soluciones de visión artificial. También es importante tener en cuenta los diversos factores que pueden afectar la velocidad de fotogramas efectiva, como las capacidades del hardware, las optimizaciones del software y las condiciones ambientales.
Aquí hay una visión más detallada de esos factores:
Los modelos de IA como Ultralytics YOLO11 que admiten tareas de visión artificial en tiempo real se pueden utilizar para analizar videos con altas velocidades de fotogramas. Esta capacidad en tiempo real es fundamental para aplicaciones como la conducción autónoma, la vigilancia y la robótica, donde incluso pequeños retrasos pueden provocar errores importantes.
Analicemos algunas aplicaciones de IA visual del mundo real donde un alto FPS es esencial para la precisión y el rendimiento.
Los sistemas de vigilancia que supervisan áreas de mucho tráfico, como las autopistas, utilizan un alto FPS para capturar detalles minuciosos, garantizando que los vehículos que se mueven rápidamente estén claramente documentados. Esta claridad es esencial para los sistemas de reconocimiento automático de matrículas (ANPR), que dependen de imágenes de buena calidad para identificar los vehículos con precisión.
En tales sistemas, se pueden utilizar modelos como YOLO11 para detectar matrículas directamente desde la transmisión de vídeo. Una vez que se detecta una matrícula, se utiliza el Reconocimiento Óptico de Caracteres (OCR), que convierte las imágenes de texto en caracteres legibles por máquina, para leer los detalles de la matrícula. Este proceso permite una identificación rápida y precisa del vehículo, lo que mejora la aplicación de las normas de tráfico y la seguridad general.

Considere un coche autónomo en una señal de stop, analizando cuidadosamente su entorno para decidir si puede avanzar con seguridad. Este coche debe tomar decisiones casi instantáneas, lo que requiere capturar y procesar datos visuales en tiempo real.
Si el vehículo autónomo está equipado con cámaras que pueden capturar imágenes a una mayor velocidad de FPS, recibe un flujo de imágenes más continuo y detallado. Esta entrada visual mejorada permite que el coche detecte rápidamente obstáculos, peatones y otros vehículos. Hace posible que el vehículo reaccione rápidamente a cualquier cambio en su entorno.
Si las cámaras procesaran imágenes a una velocidad de FPS más baja, el vehículo podría recibir una vista más entrecortada y menos detallada. Esto podría retrasar su tiempo de respuesta, aumentando el riesgo de perder información crítica y comprometiendo potencialmente la seguridad.
Capturar cada movimiento con precisión es crucial en los deportes, donde las decisiones en fracciones de segundo pueden marcar la diferencia entre ganar y perder. La tecnología que admite un FPS más alto nos permite registrar cada pequeño detalle en movimiento, y los entrenadores, analistas y atletas pueden revisar las jugadas en cámara lenta sin perderse nada. También ayuda a los árbitros a tomar decisiones más precisas en deportes como el tenis, el fútbol y el cricket, al proporcionar una vista clara, fotograma a fotograma, de la acción.
Por ejemplo, un estudio interesante sobre voleibol analizó cómo el uso de un FPS más alto mejora la evaluación del rendimiento. El aumento de FPS de 30 a 240 mejoró significativamente la claridad del movimiento y el seguimiento de objetos. La precisión del análisis del remate también mejoró, lo que ayudó a los entrenadores a comprender la posición de la mano, los puntos de contacto con la pelota y la mecánica del salto con mayor precisión. Además de eso, el estudio encontró que un FPS más alto redujo el desenfoque de movimiento, lo que facilitó el análisis de los saques y las reacciones defensivas.

No todas las aplicaciones de visión artificial requieren grabar metraje a un FPS más alto. En muchos casos, un FPS más bajo es suficiente para lograr resultados precisos, dependiendo de la tarea. Estas son algunas áreas clave donde se prefiere un FPS más bajo:
La selección de los FPS ideales requiere equilibrar el rendimiento con las limitaciones del sistema. Estas son algunas consideraciones que debe tener en cuenta al optimizar los FPS para aplicaciones de aprendizaje profundo:
Los avances en IA y la optimización del hardware están haciendo que las velocidades de fotogramas más altas sean más alcanzables, incluso en entornos con recursos limitados. Por ejemplo, industrias como el cine, los deportes y la robótica pueden beneficiarse de una gestión más inteligente de la velocidad de fotogramas, donde los sistemas ajustan dinámicamente los FPS en función de la complejidad del movimiento y la potencia de procesamiento. La interpolación de fotogramas impulsada por IA también mejora la fluidez del vídeo generando fotogramas adicionales en tiempo real.
Mientras tanto, un reciente avance de NVIDIA está impulsando aún más el rendimiento de FPS. DLSS 4 (Deep Learning Super Sampling) introduce la generación de múltiples fotogramas, que utiliza la IA para predecir y crear fotogramas adicionales. Esto aumenta la velocidad de fotogramas hasta 8 veces, al tiempo que reduce la carga de trabajo en el sistema.
Al permitir que la IA se encargue de parte del renderizado, DLSS 4 hace que las imágenes sean más fluidas sin ejercer presión adicional sobre el hardware, lo que mejora tanto el rendimiento como la eficiencia.
Los FPS son más que una simple medida de la fluidez de las imágenes; impulsan la toma de decisiones en tiempo real en la IA y la visión artificial. Cada fotograma de un vídeo captura datos críticos, lo que permite a las máquinas rastrear objetos, analizar el movimiento y responder a entornos dinámicos. Ya se trate de coches autónomos que evitan obstáculos o de sistemas de vigilancia que detectan amenazas al instante, el FPS adecuado garantiza la precisión y la eficiencia.
El futuro de los FPS no se trata solo de aumentar las velocidades de fotogramas, sino también de optimizarlas de manera inteligente. Esta evolución hará que los sistemas de visión artificial sean más rápidos, innovadores y eficientes en el uso de recursos en diversas industrias.
¿Quiere obtener más información sobre la IA? Explore nuestro repositorio de GitHub y únase a nuestra comunidad. ¿Listo para comenzar sus propios proyectos de visión artificial? Consulte nuestras opciones de licencia. ¡Descubra cómo la visión artificial en la atención médica está mejorando la eficiencia y explore el impacto de la IA en la fabricación visitando nuestras páginas de soluciones!