Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

LoRA (Adaptación de Bajo Rango)

Descubra cómo LoRA afina grandes modelos de IA como YOLO de forma eficiente, reduciendo costes y permitiendo el despliegue en el borde con recursos mínimos.

LoRA, o Low-Rank Adaptation, es una técnica revolucionaria en el campo del aprendizaje automático (ML) diseñada para afinar grandes modelos preentrenados con una eficacia excepcional. A medida que el tamaño de los de los modelos modernos, que a menudo contienen miles de millones de parámetros, su reentrenamiento para tareas específicas se ha vuelto prohibitivo desde el punto de vista computacional para muchos investigadores y desarrolladores. investigadores y desarrolladores. LoRA soluciona este problema congelando los pesos modelo original e inyectando matrices de bajo rango en la arquitectura. Este enfoque reduce drásticamente el número de parámetros entrenables, de parámetros entrenables, lo que reduce los requisitos de memoria y permite una adaptación eficaz del modelo en hardware de consumo, como una GPU (unidad de procesamiento gráfico) estándar. GPU (unidad de procesamiento gráfico) estándar.

Cómo funciona LoRA

La principal innovación de LoRA reside en su capacidad para evitar la necesidad de un reentrenamiento completo del modelo. En el ajuste cada peso de una red neuronal se actualiza durante la se actualiza durante la retropropagación, lo que requiere el almacenamiento masivo de estados del optimizador. Sin embargo, LoRA mantiene fijo el modelo preentrenado. Introduce pares de matrices de descomposición de rangos en capas específicas, normalmente dentro del mecanismo de atención de arquitecturas de transformadores.

Durante el proceso de formación, sólo se actualizan estas pequeñas matrices adaptadoras se actualizan. Como estas matrices son de "bajo rango", es decir, tienen muchas menos dimensiones que las capas completas del modelo, la carga computacional es mínima. capas completas del modelo, la carga computacional es mínima. Este concepto se basa en los principios de principios de reducción de la dimensionalidad, suponiendo que la adaptación a una nueva tarea se basa en un subespacio de baja dimensión de los parámetros del modelo. Esto convierte a LoRA una piedra angular del Parameter-Efficient Fine-Tuning (PEFT), que permite la creación de modelos específicos para cada tarea que son sólo una fracción del tamaño del punto de control original.

El siguiente fragmento de Python muestra cómo iniciar una ejecución de entrenamiento estándar utilizando la función ultralytics paquete. Aunque este comando realiza una formación completa por defecto, las configuraciones avanzadas pueden técnicas PEFT, como LoRA, para optimizar el proceso para aplicaciones específicas. conjuntos de datos personalizados.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

Aplicaciones en el mundo real

La eficacia de LoRA ha abierto nuevas posibilidades en diversos ámbitos de la Inteligencia Artificial (IA).

  • Grandes modelos lingüísticos personalizados (LLM): Las organizaciones utilizan LoRA para adaptar de propósito general (LLM) para nichos de nicho. Por ejemplo, un bufete de abogados podría chatbot con archivos de casos propios. En documento original Microsoft LoRA demostró que este método mantiene rendimiento comparable al del ajuste fino completo, al tiempo que reduce las necesidades de almacenamiento hasta 10.000 veces.
  • Arte Generativo de la IA: En el ámbito de la de la IA generativa, los artistas utilizan LoRA modelos de generación de imágenes como estilos, personajes o conceptos. Al entrenarse con un pequeño conjunto de imágenes, crean "archivos LoRA (a menudo de unos pocos megabytes) que pueden introducirse en el modelo base para alterar drásticamente su estilo de salida. de forma espectacular.
  • Visión por ordenador eficiente: Para tareas como detección de objetos, los ingenieros pueden modelos de visión para detect objetos raros o defectos control de calidad de fabricación. Esto es crucial para el despliegue en los bordes, donde los dispositivos tienen memoria limitada. Futuras arquitecturas, como la próxima YOLO26, pretenden integrar aún más esta eficiencia para aplicaciones en tiempo real.

LoRA vs. Conceptos relacionados

Para comprender plenamente la LoRA, es útil distinguirla de otras estrategias de adaptación:

  • Ajuste fino completo: Este método tradicional actualiza todos los parámetros de un modelo. Aunque permite la máxima plasticidad, consume muchos recursos y es propenso al "olvido catastrófico". recursos y es propenso al "olvido catastrófico", en el que el modelo pierde los conocimientos aprendidos previamente. previamente aprendidos. Puede explorar consejos de entrenamiento de modelos estos problemas.
  • Ingeniería Prompt: A diferencia de LoRA, que modifica los pesos del modelo (mediante adaptadores), la ingeniería de avisos se centra en la elaboración de entradas de texto eficaces para guiar el comportamiento del modelo congelado. para guiar el comportamiento de un modelo congelado. No requiere formación, pero puede ser limitada en el manejo de tareas complejas, en comparación con la adaptación de pesos.
  • Transferencia de aprendizaje: Se trata del concepto más amplio de tomar conocimientos de una tarea y aplicarlos a otra. LoRA es una y muy eficaz del aprendizaje por transferencia.
  • Prompt Tuning: Esta técnica aprende los "soft prompts" (vectores) añadidos a la secuencia de entrada. Aunque también de entrada en lugar de las capas internas del modelo, lo que a veces puede limitar su expresividad en comparación con la integración profunda de LoRA. que a veces puede limitar su expresividad en comparación con la integración profunda de LoRA.

Al democratizar el acceso a la personalización de modelos, LoRA permite a los desarrolladores crear herramientas especializadas para análisis de imágenes médicas conservación de la fauna y vehículos autónomos sin necesidad de infraestructura de un gigante tecnológico. A medida que el sector avanza hacia plataformas versátiles -como la próxima Ultralytics las técnicas que desvinculan el tamaño del modelo del coste de formación seguirán siendo esenciales para la innovación escalable de la IA.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora