Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Pesos del Modelo

Descubra la importancia de los pesos del modelo en el aprendizaje automático, su papel en las predicciones y cómo Ultralytics YOLO simplifica su uso para las tareas de IA.

Los pesos del modelo son los parámetros numéricos dentro de una red neuronal que se ajustan durante el proceso de entrenamiento. Estos valores representan esencialmente el conocimiento aprendido de un modelo. Piense en ellos como los coeficientes de una ecuación muy compleja; al ajustar estos coeficientes, el modelo aprende a mapear los datos de entrada, como una imagen, a una salida deseada, como un cuadro delimitador alrededor de un objeto. La calidad de los pesos de un modelo determina directamente su rendimiento en una tarea determinada, como la clasificación de imágenes o la detección de objetos.

Cómo se determinan los pesos

Los pesos del modelo no se establecen manualmente, sino que se "aprenden" de los datos. El proceso comienza con la inicialización de los pesos a pequeños números aleatorios. Durante el entrenamiento, el modelo realiza predicciones sobre los datos de entrenamiento, y una función de pérdida calcula el grado de error de estas predicciones. Esta señal de error se utiliza entonces en un proceso llamado retropropagación para calcular el gradiente de la pérdida con respecto a cada peso. Un algoritmo de optimización, como el descenso de gradiente estocástico (SGD), ajusta entonces los pesos en la dirección opuesta del gradiente para minimizar el error. Este ciclo se repite durante muchas épocas hasta que el rendimiento del modelo en un conjunto de datos de validación independiente deja de mejorar, una señal de que ha aprendido los patrones de los datos.

La importancia de los pesos pre-entrenados

Entrenar un modelo de última generación desde cero requiere inmensos recursos computacionales y conjuntos de datos masivos. Para superar esto, la comunidad de visión artificial utiliza ampliamente los pesos pre-entrenados. Esto implica tomar un modelo, como un modelo Ultralytics YOLO, que ya ha sido entrenado en un conjunto de datos grande y de propósito general como COCO. Estos pesos sirven como un excelente punto de partida para una nueva tarea específica a través de un proceso llamado transfer learning (aprendizaje por transferencia). Al comenzar con pesos pre-entrenados, puede lograr una mayor precisión con menos datos y tiempos de entrenamiento más cortos a través de un proceso conocido como fine-tuning (ajuste fino).

Aplicaciones en el mundo real

Pesos vs. Conceptos relacionados

Es importante diferenciar los pesos del modelo de otros términos relacionados en aprendizaje automático:

  • Hiperparámetros: A diferencia de los pesos, que se aprenden, los hiperparámetros se configuran antes de que comience el entrenamiento. Algunos ejemplos son la tasa de aprendizaje, el tamaño del lote y la elección del optimizador. El proceso de encontrar la mejor configuración de hiperparámetros se conoce como ajuste de hiperparámetros.
  • Sesgos: Los pesos y los sesgos son parámetros aprendidos. Sin embargo, los pesos escalan la salida de una neurona, mientras que un término de sesgo la desplaza. Juntos, le dan a una red neuronal la flexibilidad para ajustarse a los datos.
  • Arquitectura del modelo: La arquitectura (por ejemplo, el backbone o el detection head) es el plano del modelo: define las capas y cómo están conectadas. Los pesos son los valores dentro de esa estructura. La misma arquitectura puede tener innumerables conjuntos diferentes de pesos dependiendo de cómo se haya entrenado. Puede explorar diferentes comparaciones de modelos para ver cómo varían las arquitecturas.

Gestión y seguimiento de pesos

A medida que los modelos se vuelven más complejos, la gestión de sus pesos y los experimentos que los producen se vuelve crucial para la reproducibilidad y la colaboración. Herramientas como Weights & Biases (W&B) proporcionan una plataforma específicamente para MLOps, lo que permite a los equipos rastrear los hiperparámetros, las métricas, las versiones de código y los pesos del modelo resultantes para cada experimento. Es importante tener en cuenta que "Weights & Biases", la plataforma, es distinta de los conceptos de "pesos" y "sesgos" como parámetros dentro de una red neuronal; la plataforma ayuda a gestionar el proceso de búsqueda de pesos y sesgos óptimos. Puedes obtener más información sobre la integración de Ultralytics con W&B en la documentación. Una gestión eficiente es clave para tareas que van desde el ajuste de hiperparámetros hasta el despliegue de modelos utilizando frameworks como PyTorch o TensorFlow. Plataformas como Ultralytics HUB también proporcionan soluciones integradas para gestionar todo el ciclo de vida del modelo.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles