Glosario

Regularización

Evita el sobreajuste y mejora la generalización del modelo con técnicas de regularización como L1, L2, abandono y parada temprana. Más información

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La regularización es un conjunto de técnicas utilizadas en el Aprendizaje Automático (AM ) diseñadas para evitar un problema común conocido como sobreajuste. El sobreajuste se produce cuando un modelo aprende los detalles de los datos de entrenamiento con demasiada precisión, incluyendo el ruido y las fluctuaciones aleatorias. Este enfoque excesivo en los datos de entrenamiento dificulta la capacidad del modelo para funcionar bien con datos nuevos que no se han visto, una capacidad llamada generalización. Los métodos de regularización funcionan añadiendo una penalización relacionada con la complejidad del modelo, animándole a aprender patrones más sencillos que tengan más probabilidades de aplicarse ampliamente. Esto es vital para desarrollar modelos de IA robustos, sobre todo en campos como la visión por ordenador (VC) y el procesamiento del lenguaje natural (PLN).

Importancia en el aprendizaje automático

La regularización es esencial para entrenar modelos ML fiables, especialmente los complejos como los modelos de Aprendizaje Profundo (AD) y las Redes Neuronales (RN). Sin regularización, estos modelos podrían limitarse a memorizar los ejemplos de entrenamiento en lugar de aprender los patrones subyacentes. Esto da como resultado una gran precisión en el conjunto de entrenamiento, pero un rendimiento deficiente cuando se evalúan los datos de validación o se utilizan en situaciones reales. Al incorporar un término de penalización en la función de pérdida o modificar el proceso de entrenamiento, la regularización ayuda a gestionar la magnitud de los pesos del modelo. Esto simplifica eficazmente el modelo y mejora su capacidad de generalización. Este cuidadoso equilibrio entre ajustarse bien a los datos y mantener la simplicidad del modelo es un aspecto clave del equilibrio sesgo-varianza. Para modelos como Ultralytics YOLOla aplicación de técnicas de regularización contribuye significativamente a lograr un alto rendimiento en tareas exigentes como la detección de objetos en tiempo real.

Técnicas comunes de regularización

Se emplean ampliamente varias técnicas de regularización:

  • Regularización L1 (Lasso): Añade una penalización proporcional al valor absoluto de los pesos del modelo. Esto fomenta la escasez, lo que significa que algunas ponderaciones pueden ser exactamente cero, realizando eficazmente la selección de características. Más información sobre la Regresión Lasso.
  • Regularización L2 (Ridge): Añade una penalización proporcional al cuadrado de los pesos del modelo. Esto tiende a reducir los pesos hacia cero, pero rara vez los hace exactamente cero, lo que ayuda a evitar problemas como la multicolinealidad. Más información sobre la regresión Ridge.
  • Capa de abandono: Durante el entrenamiento, pone aleatoriamente a cero la salida de una fracción de neuronas en cada paso de actualización. Esto evita que la red se vuelva demasiado dependiente de una sola neurona, obligándola a aprender características más robustas. Lee el artículo original Dropout para obtener más detalles. Consulta los consejos de entrenamiento del modelo para una aplicación práctica.
  • Parada anticipada: Supervisa el rendimiento del modelo en un conjunto de datos de validación independiente durante el entrenamiento y detiene el proceso cuando el rendimiento en este conjunto deja de mejorar o empieza a empeorar, evitando que el modelo se ajuste en exceso a los datos de entrenamiento. Es una práctica habitual en los flujos de trabajo de aprendizaje profundo.
  • Aumento de datos: Aumenta artificialmente el tamaño y la diversidad del conjunto de datos de entrenamiento creando copias modificadas de los datos existentes (por ejemplo, girando, recortando o alterando los colores de las imágenes). Esto actúa como un regularizador al exponer el modelo a una gama más amplia de variaciones, ayudándole a generalizar mejor. Explora varias técnicas de aumento de datos y explora los conjuntos de datosUltralytics para ver ejemplos.

Aplicaciones en el mundo real

Las técnicas de regularización se aplican en numerosos ámbitos de la IA:

  1. Análisis de imágenes médicas: En el análisis de imágenes médicas, como el entrenamiento de Redes Neuronales Convolucionales (CNN ) para detectar tumores en resonancias magnéticas(utilizando conjuntos de datos como Tumor Cerebral), los conjuntos de datos suelen ser limitados. Técnicas como la regularización L2 y el Dropout ayudan a evitar que el modelo se ajuste en exceso a las exploraciones de pacientes concretos en el conjunto de entrenamiento, lo que conduce a diagnósticos más fiables en nuevos pacientes. Esto es crucial para las aplicaciones de la IA en la sanidad.
  2. Vehículos autónomos: Los sistemas de percepción de los vehículos autón omos se basan en modelos como YOLO11 para detectar peatones, vehículos y obstáculos. La regularización garantiza que estos modelos se generalicen bien a las diversas e impredecibles condiciones de conducción del mundo real (distinta iluminación, clima, apariencia de los objetos), lo que es fundamental para la seguridad. Explora las soluciones de IA en automoción.
  3. Predicción financiera: Al construir modelos para predecir las tendencias del mercado bursátil o evaluar el riesgo crediticio, se puede utilizar la regularización L1. Ayuda a seleccionar los indicadores económicos más influyentes reduciendo a cero las ponderaciones de las características menos importantes, lo que da lugar a modelos de predicción más sencillos, interpretables y potencialmente más sólidos utilizados en la IA en finanzas.

Diferencias con conceptos afines

Es importante distinguir la regularización de otros conceptos de ML relacionados:

  • Algoritmo de optimización: Los algoritmos de optimización como el Descenso Gradiente, el Descenso Gradiente Estocástico (SGD) o el Optimizador Adam son procedimientos utilizados para minimizar la función de pérdida y encontrar el conjunto óptimo de parámetros del modelo durante el entrenamiento. La regularización, en cambio, modifica el objetivo (la propia función de pérdida o el procedimiento de entrenamiento) para dar prioridad a la generalización junto con la minimización del error de entrenamiento. La optimización encuentra una solución; la regularización ayuda a garantizar que es una buena solución para los datos no vistos.
  • Ajuste de hiperparámetros: Es el proceso de seleccionar los ajustes de configuración óptimos para un modelo o algoritmo de entrenamiento antes de que comience el proceso de entrenamiento. Estos ajustes, llamados hiperparámetros, incluyen cosas como la velocidad de aprendizaje, el número de capas de una red neuronal o la fuerza de la penalización de regularización (por ejemplo, el valor lambda en L1/L2). La regularización es una técnica que se aplica durante el entrenamiento, mientras que el ajuste de hiperparámetros optimiza los parámetros que rigen esa técnica y otras. Herramientas como la plataforma Ultralytics HUB ofrecen capacidades para el ajuste automatizado de hiperparámetros.
Leer todo