Descubra cómo LoRA ajusta los grandes modelos de IA como YOLO de forma eficiente, reduciendo los costes y permitiendo la implementación perimetral con recursos mínimos.
LoRA, o adaptación de bajo rango, es una técnica muy eficiente que se utiliza para adaptar modelos grandes de aprendizaje automático (ML) preentrenados para tareas específicas sin necesidad de volver a entrenar todo el modelo. Originalmente detallada en un artículo de investigadores de Microsoft, LoRA se ha convertido en una piedra angular del ajuste fino con eficiencia de parámetros (PEFT). Reduce drásticamente el coste computacional y los requisitos de almacenamiento asociados con la personalización de modelos masivos, como los modelos de lenguaje grande (LLM) y otros modelos básicos.
En lugar de actualizar los miles de millones de pesos del modelo en un modelo pre-entrenado, LoRA los congela todos. Luego, inyecta un par de matrices pequeñas y entrenables, llamadas adaptadores de bajo rango, en capas específicas del modelo, a menudo dentro del mecanismo de atención de una arquitectura Transformer. Durante el proceso de entrenamiento, solo se actualizan los parámetros de estas matrices nuevas y mucho más pequeñas. La idea central es que los cambios necesarios para adaptar el modelo a una nueva tarea se pueden representar con muchos menos parámetros de los que contiene el modelo original. Esto aprovecha principios similares a la reducción de dimensionalidad para capturar la información esencial para la adaptación de forma compacta. Una vez que se completa el entrenamiento, el adaptador pequeño se puede fusionar con los pesos originales o mantenerse separado para el cambio de tareas modular.
La eficiencia de LoRA la hace ideal para una amplia gama de aplicaciones, especialmente donde se necesitan múltiples modelos personalizados.
Es útil distinguir LoRA de otras técnicas de adaptación de modelos:
En resumen, LoRA proporciona una forma poderosa y eficiente en cuanto a recursos para personalizar modelos de base grandes pre-entrenados para una amplia gama de tareas específicas tanto en el Procesamiento del Lenguaje Natural (PNL) como en la visión artificial, haciendo que la IA avanzada sea más práctica y accesible. Este enfoque permite una fácil gestión e implementación de muchos modelos especializados, un proceso simplificado por plataformas como Ultralytics HUB para la gestión de los ciclos de vida de los modelos.