Glosario

Modelo Pesos

Descubra la importancia de los pesos de los modelos en el aprendizaje automático, su papel en las predicciones y cómo Ultralytics YOLO simplifica su uso para las tareas de IA.

Los pesos del modelo son los parámetros numéricos de una red neuronal que se ajustan durante el proceso de entrenamiento. Estos valores representan esencialmente el conocimiento aprendido de un modelo. Piense en ellos como los coeficientes de una ecuación muy compleja; ajustando estos coeficientes, el modelo aprende a asignar datos de entrada, como una imagen, a una salida deseada, como un cuadro delimitador alrededor de un objeto. La calidad de las ponderaciones de un modelo determina directamente su rendimiento en una tarea determinada, como la clasificación de imágenes o la detección de objetos.

Cómo se determinan los pesos

Los pesos del modelo no se fijan manualmente, sino que se "aprenden" a partir de los datos. El proceso comienza con la inicialización de los pesos en pequeños números aleatorios. Durante el entrenamiento, el modelo hace predicciones sobre los datos de entrenamiento, y una función de pérdida calcula lo erróneas que son estas predicciones. Esta señal de error se utiliza en un proceso llamado retropropagación para calcular el gradiente de la pérdida con respecto a cada peso. A continuación, un algoritmo de optimización, como el Descenso Gradiente Estocástico (SGD), ajusta los pesos en la dirección opuesta al gradiente para minimizar el error. Este ciclo se repite durante muchas épocas hasta que el rendimiento del modelo en un conjunto de datos de validación independiente deja de mejorar, señal de que ha aprendido los patrones de los datos.

La importancia de las pesas preentrenadas

Entrenar un modelo de última generación desde cero requiere inmensos recursos informáticos y conjuntos de datos masivos. Para evitarlo, la comunidad de visión por ordenador utiliza ampliamente pesos preentrenados. Esto implica tomar un modelo, como el modelo YOLO de Ultralytics, que ya ha sido entrenado en un gran conjunto de datos de uso general, como COCO. Estos pesos sirven como excelente punto de partida para una tarea nueva y específica a través de un proceso denominado aprendizaje por transferencia. Al empezar con pesos preentrenados, puede conseguir una mayor precisión con menos datos y tiempos de entrenamiento más cortos mediante un proceso conocido como ajuste fino.

Aplicaciones reales

Pesos frente a conceptos afines

Es importante diferenciar las ponderaciones del modelo de otros términos relacionados en el aprendizaje automático:

  • Hiperparámetros: A diferencia de los pesos, que se aprenden, los hiperparámetros se configuran antes de iniciar el entrenamiento. Algunos ejemplos son la tasa de aprendizaje, el tamaño del lote y la elección del optimizador. El proceso de encontrar la mejor configuración de hiperparámetros se conoce como ajuste de hiperparámetros.
  • Sesgos: Tanto los pesos como los sesgos son parámetros aprendidos. Sin embargo, los pesos escalan la salida de una neurona, mientras que un término de sesgo la desplaza. Juntos, proporcionan a una red neuronal la flexibilidad necesaria para ajustarse a los datos.
  • Arquitectura del modelo: La arquitectura (por ejemplo, la columna vertebral o la cabeza de detección) es el plano del modelo: define las capas y cómo están conectadas. Los pesos son los valores dentro de esa estructura. La misma arquitectura puede tener innumerables conjuntos diferentes de pesos en función de cómo se haya entrenado. Puede explorar diferentes comparaciones de modelos para ver cómo varían las arquitecturas.

Gestión y seguimiento de los pesos

A medida que los modelos se vuelven más complejos, la gestión de sus pesos y de los experimentos que los producen se vuelve crucial para la reproducibilidad y la colaboración. Herramientas como Weights & Biases (W&B) ofrecen una plataforma específica para MLOps, que permite a los equipos realizar un seguimiento de los hiperparámetros, las métricas, las versiones del código y las ponderaciones de los modelos resultantes de cada experimento. Es importante señalar que la plataforma "Weights & Biases" es distinta de los conceptos de "pesos" y "sesgos" como parámetros dentro de una red neuronal; la plataforma ayuda a gestionar el proceso de búsqueda de pesos y sesgos óptimos. Puede obtener más información sobre la integración de Ultralytics con W&B en la documentación. La gestión eficiente es clave para tareas que van desde el ajuste de hiperparámetros hasta el despliegue de modelos utilizando marcos como PyTorch o TensorFlow. Plataformas como Ultralytics HUB también ofrecen soluciones integradas para gestionar todo el ciclo de vida del modelo.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles