Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Seguimiento de experimentos

Siga los experimentos de ML: registre hiperparámetros, conjuntos de datos, métricas y artefactos para un entrenamiento de modelos reproducible. Aprenda a organizar ejecuciones con Ultralytics YOLO11.

El seguimiento de experimentos es el proceso sistemático de registrar, organizar y analizar las variables, métricas y artefactos generados durante el entrenamiento de modelos de aprendizaje automático. Al igual que el cuaderno de laboratorio de un científico, esta práctica crea un registro digital completo de cada hipótesis probada, lo que garantiza que la fase de investigación y desarrollo sea rigurosa, transparente y reproducible. Al capturar entradas como hiperparámetros y versiones de conjuntos de datos junto con salidas como gráficos de rendimiento y pesos entrenados, el seguimiento de experimentos transforma la naturaleza a menudo iterativa y caótica del entrenamiento de modelos en un flujo de trabajo estructurado y basado en datos. Esta organización es fundamental para los equipos que desean crear sistemas robustos de inteligencia artificial (IA) de manera eficiente, ya que les permite identificar exactamente qué configuraciones producen los mejores resultados.

Componentes básicos del seguimiento de experimentos

Para gestionar eficazmente el ciclo de vida de un proyecto de visión por ordenador, un sistema de seguimiento robusto suele registrar tres categorías distintas de información. La organización de estos componentes permite a los desarrolladores comparar diferentes iteraciones e identificar la configuración óptima para su caso de uso específico.

  • Parámetros y configuración: Son las variables que se establecen antes de comenzar el entrenamiento. Incluyen la tasa de aprendizaje, la elección del optimizador (por ejemplo, Adam ), el tamaño del lote y la arquitectura específica del modelo, como el último YOLO26. Su seguimiento garantiza que cualquier ejecución satisfactoria pueda recrearse exactamente.
  • Métricas de rendimiento: Son medidas cuantitativas registradas durante el entrenamiento para evaluar el éxito. Las métricas comunes incluyen funciones de pérdida para medir el error, la precisión para tareas de clasificación y la precisión media (mAP) para la detección de objetos.
  • Artefactos y resultados: Los artefactos se refieren a los archivos tangibles generados por una ejecución, como los pesos del modelo entrenado, gráficos de visualización como matrices de confusión y registros del entorno.

Relevancia en aplicaciones del mundo real

La aplicación rigurosa del seguimiento de experimentos es esencial en industrias donde la precisión y la seguridad son primordiales. Permite a los equipos de ingeniería revisar datos históricos para comprender por qué un modelo se comporta de cierta manera.

Imágenes médicas y diagnósticos

En el campo de la asistencia sanitaria, los investigadores utilizan el análisis de imágenes médicas para ayudar a los médicos a diagnosticar enfermedades. Por ejemplo, al entrenar un modelo para la detección de tumores cerebrales, los ingenieros pueden realizar cientos de experimentos variando las técnicas de aumento de datos. El seguimiento de los experimentos les permite aislar qué combinación específica de pasos de preprocesamiento produjo la mayor sensibilidad, lo que garantiza que el agente de IA desplegado minimice los falsos negativos en escenarios de diagnóstico críticos.

Seguridad de los vehículos autónomos

El desarrollo de vehículos autónomos requiere procesar grandes cantidades de datos de sensores para detect , señales y obstáculos. Los equipos que trabajan en la detección de objetos para coches autónomos deben optimizar tanto la precisión como la latencia de inferencia. Mediante el seguimiento de los experimentos, pueden analizar la relación entre el tamaño del modelo y la velocidad, garantizando que el sistema final reaccione en tiempo real sin comprometer las normas de seguridad establecidas por organizaciones como la Administración Nacional de Seguridad Vial en Carreteras (NHTSA).

Diferenciar conceptos relacionados

Aunque el seguimiento de experimentos es una parte fundamental de MLOps (operaciones de aprendizaje automático), a menudo se confunde con otros términos similares. Comprender las diferencias es importante para implementar un flujo de trabajo correcto.

  • Seguimiento de experimentos frente a supervisión de modelos: el seguimiento de experimentos se produce durante la fase de desarrollo y formación («offline»). Por el contrario, la supervisión de modelos tiene lugar después de que el modelo se haya implementado en producción («online»). La supervisión se centra en detectar problemas como la deriva de datos o la degradación del rendimiento en datos en tiempo real, mientras que el seguimiento se centra en optimizar el modelo antes de que llegue a los usuarios.
  • Seguimiento de experimentos frente a control de versiones: herramientas como Git proporcionan control de versiones para el código fuente, realizando un seguimiento de los cambios en los archivos de texto a lo largo del tiempo. El seguimiento de experimentos va un paso más allá al vincular una versión específica de ese código con los datos, parámetros y resultados específicos de una ejecución de entrenamiento. Mientras que el control de versiones responde a la pregunta «¿Cómo ha cambiado el código?», el seguimiento de experimentos responde a la pregunta «¿Qué parámetros han producido el mejor modelo?».

Aplicación con Ultralytics YOLO

Los marcos modernos de IA simplifican el seguimiento de los experimentos al permitir a los desarrolladores registrar fácilmente las ejecuciones en directorios locales o servidores remotos. Al utilizar Ultralytics , el seguimiento se puede organizar de manera eficaz mediante la definición de nombres de proyectos y ejecuciones . Esta estructura crea una jerarquía de directorios que separa las diferentes hipótesis experimentales.

El siguiente ejemplo muestra cómo entrenar un modelo YOLO26(el último estándar en velocidad y precisión) al tiempo que se nombran explícitamente el proyecto y la ejecución del experimento. Esto garantiza que las métricas, los registros y los pesos se guarden de forma organizada para futuras comparaciones.

from ultralytics import YOLO

# Load the latest YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train the model, specifying 'project' and 'name' for organized tracking
# Results will be saved to 'runs/detect/experiment_tracking_demo'
results = model.train(data="coco8.yaml", epochs=5, project="runs/detect", name="experiment_tracking_demo")

Herramientas e integraciones populares

Para visualizar y gestionar los datos registrados, los desarrolladores utilizan software especializado. Estas herramientas suelen incluir paneles de control que permiten comparar las curvas de entrenamiento y las tablas de métricas.

  • MLflow: una plataforma de código abierto que gestiona el ciclo de vida del aprendizaje automático, incluyendo la experimentación, la reproducibilidad y la implementación. La integraciónUltralytics permite un registro fluido de métricas durante YOLO .
  • TensorBoard: Desarrollado originalmente para TensorFlow, este kit de herramientas de visualización se utiliza ampliamente en diversos marcos, incluido PyTorch, para inspeccionar curvas de pérdida y elementos visuales. Puede visualizar fácilmente las métricas de entrenamiento con la integración de TensorBoard.
  • DVC (Control de versiones de datos): DVC amplía el concepto de seguimiento a conjuntos de datos y modelos, manejando archivos grandes que Git no puede manejar. El uso de la integración DVC ayuda a mantener un estricto control de versiones de los datos utilizados en cada experimento.
  • Weights & Biases: una plataforma para MLOps pensada para desarrolladores que ayuda a los equipos track , crear modelos de versiones y visualizar los resultados. La Weights & Biases proporciona gráficos interactivos y completos para analizar ejecuciones de entrenamiento complejas.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora