¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Normalización

¡Descubra el poder de la normalización en el aprendizaje automático! Aprenda cómo mejora el entrenamiento de modelos, aumenta el rendimiento y garantiza soluciones de IA robustas.

La normalización es una técnica crucial de preprocesamiento de datos en aprendizaje automático (ML) e inteligencia artificial (IA). Implica transformar las características numéricas de un conjunto de datos a una escala común sin distorsionar las diferencias en sus rangos. Este proceso de escalado es vital para el rendimiento y la estabilidad de muchos algoritmos, especialmente aquellos que son sensibles a la magnitud de los valores de entrada, como los métodos de optimización basados en gradientes utilizados en el entrenamiento de redes neuronales (NN). Al garantizar que todas las características contribuyan proporcionalmente al proceso de aprendizaje del modelo, la normalización ayuda a acelerar el entrenamiento y mejorar la precisión general del modelo.

¿Por qué es importante la normalización?

Sin normalización, las características con escalas mayores pueden dominar el proceso de aprendizaje de un modelo. Por ejemplo, en un conjunto de datos para predecir los precios de las viviendas, una característica como "metros cuadrados" (por ejemplo, 1000-3000) tendría un rango mucho mayor que "número de dormitorios" (por ejemplo, 2-5). Esta discrepancia puede hacer que algoritmos como el descenso de gradiente tarden más en converger o se queden atascados en óptimos locales. La normalización mitiga esto al poner todas las características en igualdad de condiciones, lo que conduce a:

  • Convergencia más rápida: Los modelos se entrenan más rápidamente porque el algoritmo de optimización puede navegar por el espacio de pérdida de manera más eficiente.
  • Rendimiento mejorado: Es esencial para los algoritmos que utilizan medidas de distancia, como k-Nearest Neighbors (k-NN), o aquellos que se basan en actualizaciones de gradiente, como las Redes Neuronales Convolucionales (CNN).
  • Riesgo Reducido de Inestabilidad Numérica: Ayuda a prevenir problemas como el estallido de gradientes durante el proceso de retropropagación.
  • Contribución de características consistente: Garantiza que ninguna característica individual influya de manera desproporcionada en el modelo simplemente debido a su escala. Este es un aspecto clave de la ingeniería de características adecuada.

Normalización vs. Estandarización vs. Normalización por Lotes

Aunque a menudo se utilizan indistintamente, la normalización y la estandarización son técnicas distintas. También es importante distinguir la normalización de datos de la Normalización por Lotes.

  • Normalización (Escalado Min-Max): Esta técnica escala los datos a un rango fijo, típicamente. Es útil cuando la distribución de los datos no es gaussiana o cuando el algoritmo no asume ninguna distribución específica. Es un paso común en el preprocesamiento de datos.
  • Estandarización (Normalización de puntuación Z): Esta técnica reescala los datos para tener una media de 0 y una desviación estándar de 1. A diferencia del escalado min-max, no tiene un rango delimitador. La estandarización se prefiere a menudo cuando los datos siguen una distribución gaussiana y se ve menos afectada por los valores atípicos.
  • Normalización por Lotes (Batch Normalization): Esto no es un paso de preprocesamiento de datos, sino una capa utilizada dentro de un modelo de aprendizaje profundo (deep learning). Normaliza las entradas a una capa para cada mini-lote durante el entrenamiento. Esto ayuda a combatir el cambio interno de covariables, estabilizando y acelerando el entrenamiento de redes profundas. Es un componente estándar en muchas arquitecturas modernas, incluidos los modelos Ultralytics YOLO, y está implementado en frameworks como PyTorch y TensorFlow.

Aplicaciones de la normalización

La normalización es una práctica estándar en varios dominios, especialmente en visión artificial (CV). Plataformas como Ultralytics HUB agilizan los flujos de trabajo donde dicho preprocesamiento es esencial para entrenar modelos de alto rendimiento.

  • Preprocesamiento de Datos de Imagen: En visión artificial, las imágenes se componen de valores de píxeles, que normalmente oscilan entre 0 y 255. Antes de introducir una imagen en un modelo para tareas como la clasificación de imágenes o la detección de objetos, estos valores de píxeles casi siempre se normalizan. Escalar estos valores a un rango de [0, 1] o [-1, 1] garantiza la coherencia en todas las imágenes de un conjunto de datos, lo cual es fundamental para que modelos como YOLO11 aprendan las características de forma eficaz.
  • Análisis de imágenes médicas: En campos como la IA en la atención médica, las exploraciones médicas como las resonancias magnéticas o las tomografías computarizadas a menudo provienen de diferentes máquinas con diferentes configuraciones, lo que resulta en diferentes escalas de intensidad. Cuando se utiliza la IA para la detección de tumores, la normalización de estas exploraciones es un paso crítico. Asegura que el análisis del modelo sea comparable entre diferentes pacientes y equipos, lo que lleva a predicciones diagnósticas más fiables y precisas. Este es un concepto fundamental en el análisis de imágenes médicas.
  • Modelado predictivo en finanzas: Al construir modelos para predecir los precios de las acciones o evaluar el riesgo crediticio, los conjuntos de datos a menudo incluyen características con escalas muy diferentes, como el volumen de operaciones (en millones) y la relación precio-beneficio (por ejemplo, 10-50). La normalización de estas características es esencial para los algoritmos basados en la distancia y garantiza que el aprendizaje basado en gradientes no se vea sesgado por características con magnitudes mayores, una práctica común en la visión artificial en las finanzas.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles