Glosario

LoRA (Adaptación de bajo rango)

Descubra cómo LoRA afina grandes modelos de IA como YOLO de forma eficiente, reduciendo costes y permitiendo el despliegue en el borde con recursos mínimos.

LoRA, o Low-Rank Adaptation (adaptación de bajo rango), es una técnica muy eficaz para adaptar grandes modelos de aprendizaje automático (ML) preentrenados a tareas específicas sin necesidad de volver a entrenar todo el modelo. Detallada originalmente en un artículo de investigadores de Microsoft, LoRA se ha convertido en la piedra angular del ajuste fino eficiente de parámetros (PEFT). Reduce drásticamente el coste computacional y los requisitos de almacenamiento asociados a la personalización de modelos masivos, como los grandes modelos lingüísticos (LLM) y otros modelos básicos.

Cómo funciona la LoRA

En lugar de actualizar los miles de millones de pesos de un modelo preentrenado, LoRA los congela todos. A continuación, inyecta un par de pequeñas matrices entrenables -denominadas adaptadores de bajo rango- en capas específicas del modelo, a menudo dentro del mecanismo de atención de una arquitectura Transformer. Durante el proceso de entrenamiento, sólo se actualizan los parámetros de estas nuevas matrices, mucho más pequeñas. La idea central es que los cambios necesarios para adaptar el modelo a una nueva tarea pueden representarse con muchos menos parámetros de los que contiene el modelo original. Esto aprovecha principios similares a la reducción de la dimensionalidad para capturar la información esencial para la adaptación de forma compacta. Una vez completado el entrenamiento, el pequeño adaptador puede fusionarse con los pesos originales o mantenerse separado para el cambio modular de tareas.

Aplicaciones reales

La eficacia de LoRA lo hace ideal para una amplia gama de aplicaciones, especialmente cuando se necesitan varios modelos personalizados.

  • Personalización de chatbots: Una empresa puede tomar un potente LLM de propósito general y utilizar LoRA para entrenarlo en su base de conocimientos interna. De este modo se crea un chatbot de atención al cliente especializado que entiende la terminología específica de la empresa sin el inmenso coste de una puesta a punto completa.
  • Arte de IA y transferencia de estilos: Artistas y diseñadores utilizan LoRA para adaptar modelos generativos de IA como Stable Diffusion a un estilo artístico específico. Entrenando a un adaptador con un pequeño conjunto de sus propias imágenes, pueden generar arte nuevo que imite su estética única, una práctica popular en plataformas como Hugging Face.

LoRA frente a conceptos afines

Es útil distinguir LoRA de otras técnicas de adaptación de modelos:

  • Ajuste fino completo: Este método actualiza todos los pesos de un modelo preentrenado en un nuevo conjunto de datos. Aunque suele ser eficaz, requiere importantes recursos computacionales(GPU) y almacenamiento para cada modelo adaptado. LoRA, por el contrario, congela los pesos originales y sólo entrena las pequeñas matrices adaptadoras inyectadas. Encontrará más detalles en nuestra entrada del glosario sobre ajuste fino y en la descripción general de ajuste fino de NVIDIA.
  • Ajuste de indicaciones: Esta técnica mantiene las ponderaciones del modelo completamente congeladas y, en su lugar, aprende "indicaciones suaves" continuas (vectores añadidos a las incrustaciones de entrada) para dirigir el comportamiento del modelo en tareas específicas. A diferencia de LoRA, no modifica los pesos del modelo, sino que se centra exclusivamente en adaptar la representación de entrada. Más información sobre el ajuste y la ingeniería de instrucciones.
  • Otros métodos PEFT: LoRA es sólo una técnica dentro del campo más amplio del ajuste fino eficiente de parámetros (PEFT). Otros métodos son Adapter Tuning (similar pero con estructuras de adaptador ligeramente diferentes), Prefix Tuning e IA³, cada uno de los cuales ofrece diferentes compensaciones en cuanto a eficiencia de parámetros y rendimiento. Estos métodos suelen estar disponibles en marcos como la biblioteca Hugging Face PEFT.

En resumen, LoRA proporciona una forma potente y eficiente en recursos de personalizar grandes modelos básicos preentrenados para una amplia gama de tareas específicas tanto en Procesamiento del Lenguaje Natural (PLN) como en visión por ordenador, haciendo que la IA avanzada sea más práctica y accesible. Este enfoque permite gestionar y desplegar fácilmente muchos modelos especializados, un proceso agilizado por plataformas como Ultralytics HUB para gestionar los ciclos de vida de los modelos.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles