Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Ajuste de hiperparámetros

Domina el ajuste de hiperparámetros para optimizar modelos de ML como Ultralytics YOLO. Aumenta la precisión, la velocidad y el rendimiento con técnicas expertas.

El ajuste de hiperparámetros es el proceso de encontrar la configuración óptima para un modelo de Machine Learning (ML). Estas configuraciones, conocidas como hiperparámetros, son externas al modelo y no se pueden aprender directamente de los datos durante el proceso de entrenamiento. En cambio, se establecen antes de que comience el entrenamiento y controlan cómo se comporta el proceso de entrenamiento en sí. Ajustar eficazmente estos hiperparámetros es un paso fundamental para maximizar el rendimiento del modelo y garantizar que se generalice bien a datos nuevos e invisibles. Sin un ajuste adecuado, incluso la arquitectura del modelo más avanzada puede tener un rendimiento inferior.

Ajuste de hiperparámetros vs. Conceptos relacionados

Es importante diferenciar el ajuste de hiperparámetros de otros conceptos clave en ML:

  • Algoritmo de optimización: Un algoritmo de optimización, como Adam o Descenso de gradiente estocástico (SGD), es el motor que ajusta los parámetros internos del modelo (pesos y sesgos) durante el entrenamiento para minimizar la función de pérdida. El ajuste de hiperparámetros, por el contrario, implica seleccionar la mejor configuración externa, que incluso puede incluir la elección del propio algoritmo de optimización.
  • Búsqueda de Arquitectura Neuronal (NAS): Mientras que el ajuste de hiperparámetros optimiza la configuración para una estructura de modelo dada, NAS automatiza el diseño de la arquitectura del modelo en sí, como la determinación del número y el tipo de capas. Ambos son formas de Aprendizaje Automático Automatizado (AutoML) y, a menudo, se utilizan juntos para construir el mejor modelo posible.
  • Parámetros del modelo: Estas son las variables internas de un modelo, como los pesos y los sesgos en una red neuronal, que se aprenden de los datos de entrenamiento a través de la retropropagación. Los hiperparámetros son los ajustes de nivel superior que rigen cómo se aprenden estos parámetros.

Métodos Comunes de Ajuste e Hiperparámetros

Los profesionales utilizan varias estrategias para encontrar los mejores valores de hiperparámetros. Los métodos comunes incluyen la búsqueda en cuadrícula (Grid Search), que prueba exhaustivamente cada combinación de valores especificados, la búsqueda aleatoria (Random Search), que muestrea combinaciones aleatoriamente, y métodos más avanzados como la optimización bayesiana y los algoritmos evolutivos.

Algunos de los hiperparámetros que se ajustan con más frecuencia son:

Aplicaciones en el mundo real

El ajuste de hiperparámetros se aplica en varios dominios para lograr el máximo rendimiento:

Ajuste de hiperparámetros con Ultralytics

Ultralytics proporciona herramientas para simplificar el ajuste de hiperparámetros para Ultralytics YOLO modelos. El Ultralytics Tuner class, documentado en el guía de Ajuste de Hiperparámetros, automatiza el proceso utilizando algoritmos evolutivos. La integración con plataformas como Ray Tune ofrece capacidades adicionales para estrategias de búsqueda distribuidas y avanzadas, lo que ayuda a los usuarios a optimizar sus modelos de manera eficiente para conjuntos de datos específicos (como COCO) y tareas. Los usuarios pueden aprovechar plataformas como Ultralytics HUB para un seguimiento y gestión de experimentos optimizados, que a menudo es una parte clave para seguir las mejores prácticas para entrenamiento de modelos. Bibliotecas populares de código abierto como Optuna y Hyperopt también se utilizan ampliamente en la comunidad de ML para este propósito.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles