¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

LoRA (Adaptación de Bajo Rango)

Descubra cómo LoRA ajusta los grandes modelos de IA como YOLO de forma eficiente, reduciendo los costes y permitiendo la implementación perimetral con recursos mínimos.

LoRA, o adaptación de bajo rango, es una técnica muy eficiente que se utiliza para adaptar modelos grandes de aprendizaje automático (ML) preentrenados para tareas específicas sin necesidad de volver a entrenar todo el modelo. Originalmente detallada en un artículo de investigadores de Microsoft, LoRA se ha convertido en una piedra angular del ajuste fino con eficiencia de parámetros (PEFT). Reduce drásticamente el coste computacional y los requisitos de almacenamiento asociados con la personalización de modelos masivos, como los modelos de lenguaje grande (LLM) y otros modelos básicos.

Cómo funciona LoRA

En lugar de actualizar los miles de millones de pesos del modelo en un modelo pre-entrenado, LoRA los congela todos. Luego, inyecta un par de matrices pequeñas y entrenables, llamadas adaptadores de bajo rango, en capas específicas del modelo, a menudo dentro del mecanismo de atención de una arquitectura Transformer. Durante el proceso de entrenamiento, solo se actualizan los parámetros de estas matrices nuevas y mucho más pequeñas. La idea central es que los cambios necesarios para adaptar el modelo a una nueva tarea se pueden representar con muchos menos parámetros de los que contiene el modelo original. Esto aprovecha principios similares a la reducción de dimensionalidad para capturar la información esencial para la adaptación de forma compacta. Una vez que se completa el entrenamiento, el adaptador pequeño se puede fusionar con los pesos originales o mantenerse separado para el cambio de tareas modular.

Aplicaciones en el mundo real

La eficiencia de LoRA la hace ideal para una amplia gama de aplicaciones, especialmente donde se necesitan múltiples modelos personalizados.

  • Personalización de Chatbots: Una empresa puede tomar un LLM potente y de propósito general y utilizar LoRA para entrenarlo en su base de conocimientos interna. Esto crea un chatbot de atención al cliente especializado que entiende la terminología específica de la empresa sin el inmenso coste de un ajuste fino completo.
  • Arte de IA y Transferencia de Estilo: Los artistas y diseñadores utilizan LoRA para adaptar modelos de IA generativa como Stable Diffusion a un estilo artístico específico. Al entrenar un adaptador en un pequeño conjunto de sus propias imágenes, pueden generar nuevo arte que imite su estética única, una práctica popular en plataformas como Hugging Face.

LoRA vs. Conceptos relacionados

Es útil distinguir LoRA de otras técnicas de adaptación de modelos:

  • Ajuste Fino Completo (Full Fine-tuning): Este método actualiza todos los pesos de un modelo pre-entrenado en un nuevo conjunto de datos. Aunque a menudo es eficaz, requiere importantes recursos computacionales (GPU) y almacenamiento para cada modelo adaptado. LoRA, por el contrario, congela los pesos originales y sólo entrena las pequeñas matrices adaptadoras inyectadas. Encuentre más detalles en nuestra entrada del glosario sobre el ajuste fino y en la visión general del ajuste fino de NVIDIA.
  • Ajuste de prompts: Esta técnica mantiene los pesos del modelo completamente congelados y, en cambio, aprende "prompts suaves" continuos (vectores agregados a las incrustaciones de entrada) para dirigir el comportamiento del modelo para tareas específicas. A diferencia de LoRA, no modifica ningún peso del modelo, sino que se centra puramente en adaptar la representación de entrada. Lea más sobre el ajuste de prompts y la ingeniería de prompts.
  • Otros métodos PEFT: LoRA es solo una técnica dentro del campo más amplio del ajuste fino eficiente de parámetros (PEFT). Otros métodos incluyen Adapter Tuning (similar pero con estructuras de adaptadores ligeramente diferentes), Prefix Tuning e IA³, cada uno ofreciendo diferentes compensaciones en eficiencia de parámetros y rendimiento. Estos métodos están comúnmente disponibles en frameworks como la biblioteca Hugging Face PEFT.

En resumen, LoRA proporciona una forma poderosa y eficiente en cuanto a recursos para personalizar modelos de base grandes pre-entrenados para una amplia gama de tareas específicas tanto en el Procesamiento del Lenguaje Natural (PNL) como en la visión artificial, haciendo que la IA avanzada sea más práctica y accesible. Este enfoque permite una fácil gestión e implementación de muchos modelos especializados, un proceso simplificado por plataformas como Ultralytics HUB para la gestión de los ciclos de vida de los modelos.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles