¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Ajuste Fino Eficiente en Parámetros (PEFT)

Descubra el ajuste fino (fine-tuning) con eficiencia de parámetros (PEFT) para adaptar grandes modelos de IA con recursos mínimos. ¡Ahorre costes, evite el sobreajuste y optimice la implementación!

El ajuste fino eficiente en parámetros (PEFT) es un conjunto de técnicas utilizadas en el aprendizaje automático para adaptar grandes modelos pre-entrenados a nuevas tareas específicas sin necesidad de volver a entrenar todo el modelo. A medida que los modelos de base en campos como el Procesamiento del Lenguaje Natural (PNL) y la Visión Artificial (CV) crecen a miles de millones de parámetros, el ajuste fino completo se vuelve computacionalmente caro y requiere un almacenamiento de datos significativo para cada nueva tarea. PEFT aborda esto congelando la gran mayoría de los pesos del modelo pre-entrenado y entrenando solo un pequeño número de parámetros adicionales o existentes. Este enfoque reduce drásticamente los costes computacionales y de almacenamiento, disminuye el riesgo de olvido catastrófico (donde un modelo olvida sus capacidades originales) y hace que sea factible personalizar un único modelo grande para muchas aplicaciones diferentes.

¿Cómo funciona PEFT?

El principio fundamental detrás de PEFT es realizar cambios mínimos y específicos en un modelo pre-entrenado. En lugar de actualizar cada parámetro, los métodos PEFT introducen un pequeño conjunto de parámetros entrenables o seleccionan un pequeño subconjunto de los existentes para actualizar durante el entrenamiento. Esta es una forma de aprendizaje por transferencia que se optimiza para la eficiencia. Existen varios métodos PEFT populares, cada uno con una estrategia diferente:

  • LoRA (Adaptación de Bajo Rango): Esta técnica inyecta pequeñas matrices de bajo rango entrenables en las capas del modelo pre-entrenado, a menudo dentro del mecanismo de atención. Estas matrices de "adaptador" son significativamente más pequeñas que las matrices de peso originales, lo que hace que el entrenamiento sea rápido y eficiente. El artículo de investigación original de LoRA proporciona más detalles técnicos.
  • Ajuste de Prompts (Prompt Tuning): En lugar de modificar la arquitectura del modelo, este método mantiene el modelo completamente congelado y aprende un conjunto de "soft prompts" o vectores de embedding entrenables. Estos vectores se añaden a la secuencia de entrada para guiar la salida del modelo para una tarea específica, como se detalla en su artículo fundacional.
  • Ajuste de adaptadores: Este método implica la inserción de pequeños módulos de redes neuronales totalmente conectadas, conocidos como "adaptadores", entre las capas del modelo pre-entrenado. Solo se entrenan los parámetros de estos nuevos adaptadores.

Estos y otros métodos son ampliamente accesibles a través de frameworks como la librería PEFT de Hugging Face, que simplifica su implementación.

PEFT vs. Conceptos relacionados

Es importante diferenciar PEFT de otras estrategias de adaptación de modelos:

  • Ajuste Fino Completo (Full Fine-Tuning): A diferencia de PEFT, el ajuste fino completo actualiza todos los pesos de un modelo pre-entrenado. Esto requiere muchos recursos, una GPU potente y un gran almacenamiento para cada versión del modelo ajustado.
  • Ingeniería de Prompts (Prompt Engineering): Esta técnica implica diseñar manualmente prompts efectivos basados en texto para guiar el comportamiento de un modelo. No implica ningún entrenamiento o actualización de parámetros; se trata puramente de elaborar la entrada para obtener la salida deseada de un modelo congelado.
  • Destilación del Conocimiento: Esto implica entrenar un modelo "estudiante" más pequeño para imitar el comportamiento de un modelo "profesor" más grande, pre-entrenado. Si bien crea un modelo más pequeño, el proceso en sí mismo puede ser computacionalmente intensivo.

Aplicaciones en el mundo real

PEFT permite la aplicación práctica de modelos grandes en varios dominios:

En esencia, el ajuste fino eficiente en parámetros hace que los modelos de IA de última generación sean más versátiles y rentables de adaptar, democratizando el acceso a potentes capacidades de IA para una amplia gama de aplicaciones específicas.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles