Descubra cómo la estimación de poses utiliza puntos clave para track . Explore aplicaciones del mundo real y comience a utilizar Ultralytics para obtener resultados rápidos y precisos.
La estimación de la postura es una técnica especializada de visión por computadora que va más allá de la simple detección de la presencia de objetos para comprender su estructura geométrica y orientación física. Mientras que la detección estándar de objetos dibuja un simple cuadro rectangular alrededor de un sujeto, la estimación de la postura identifica puntos semánticos específicos, conocidos como puntos clave, tales como las articulaciones del cuerpo humano (codos, rodillas, hombros) o las esquinas estructurales de un vehículo. Al mapear estos puntos de referencia, los modelos de aprendizaje automático pueden reconstruir una representación esquelética del sujeto, lo que permite a los sistemas interpretar el lenguaje corporal, la dinámica de los movimientos y el posicionamiento preciso en un espacio 2D o 3D.
La estimación de posturas moderna se basa en gran medida en sofisticadas arquitecturas de aprendizaje profundo, que a menudo utilizan redes neuronales convolucionales (CNN) para procesar datos visuales. Los algoritmos suelen seguir una de dos estrategias principales para identificar puntos clave:
Los modelos de última generación como YOLO26 utilizan arquitecturas avanzadas de extremo a extremo que equilibran estas necesidades, proporcionando una estimación de la postura a alta velocidad adecuada para su implementación en dispositivos de IA de vanguardia y plataformas móviles.
Es útil diferenciar la estimación de posturas de otras tareas de reconocimiento visual para comprender su valor único en los flujos de trabajo de visión por computadora:
La capacidad de digitalizar el movimiento de personas y objetos ha dado lugar a aplicaciones transformadoras en diversos sectores, a menudo entrenadas con herramientas como la Ultralytics para gestionar grandes conjuntos de datos de puntos clave anotados.
En el ámbito médico, la IA en la asistencia sanitaria utiliza la estimación de posturas para supervisar la rehabilitación de los pacientes de forma remota. Mediante el seguimiento de los ángulos articulares y el rango de movimiento, los sistemas automatizados pueden garantizar que los pacientes realicen correctamente los ejercicios de fisioterapia en casa. Esto reduce el riesgo de volver a lesionarse y permite a los médicos cuantificar el progreso de la recuperación sin necesidad de costosos equipos de laboratorio.
Los entrenadores y los atletas aprovechan el análisis deportivo para optimizar el rendimiento. Los modelos de estimación de la postura pueden analizar el plano de swing de un golfista, la longitud de la zancada de un corredor o la biomecánica de un lanzador sin necesidad de utilizar los trajes con marcadores intrusivos que se emplean en la captura de movimiento tradicional . Esto proporciona una retroalimentación inmediata basada en datos para mejorar la técnica y prevenir lesiones por sobrecarga.
En entornos comerciales, la IA en los sistemas minoristas utiliza la detección de posturas para comprender el comportamiento de los clientes, como alcanzar productos en estantes altos o detenerse en pasillos específicos . Estos datos ayudan a optimizar la distribución de las tiendas y a mejorar la gestión del inventario , al correlacionar las acciones físicas con las decisiones de compra.
La implementación de la estimación de la postura es sencilla con los modernos Python marcos.
El siguiente ejemplo muestra cómo utilizar el ultralytics paquete para cargar un modelo preentrenado
YOLO26 modelo (el sucesor de
YOLO11) y detect puntos clave detect en una imagen.
from ultralytics import YOLO
# Load the YOLO26 pose model (nano version for speed)
model = YOLO("yolo26n-pose.pt")
# Perform inference on an image source
# The model identifies bounding boxes and specific keypoints (joints)
results = model("https://ultralytics.com/images/bus.jpg")
# Print the xy coordinates of detected keypoints
print(results[0].keypoints.xy)
# Visualize the skeletal results directly
results[0].show()