Descubra cómo LoRA afina grandes modelos de IA como YOLO de forma eficiente, reduciendo costes y permitiendo el despliegue en el borde con recursos mínimos.
LoRA, o Low-Rank Adaptation (adaptación de bajo rango), es una técnica muy eficaz para adaptar grandes modelos de aprendizaje automático (ML) preentrenados a tareas específicas sin necesidad de volver a entrenar todo el modelo. Detallada originalmente en un artículo de investigadores de Microsoft, LoRA se ha convertido en la piedra angular del ajuste fino eficiente de parámetros (PEFT). Reduce drásticamente el coste computacional y los requisitos de almacenamiento asociados a la personalización de modelos masivos, como los grandes modelos lingüísticos (LLM) y otros modelos básicos.
En lugar de actualizar los miles de millones de pesos de un modelo preentrenado, LoRA los congela todos. A continuación, inyecta un par de pequeñas matrices entrenables -denominadas adaptadores de bajo rango- en capas específicas del modelo, a menudo dentro del mecanismo de atención de una arquitectura Transformer. Durante el proceso de entrenamiento, sólo se actualizan los parámetros de estas nuevas matrices, mucho más pequeñas. La idea central es que los cambios necesarios para adaptar el modelo a una nueva tarea pueden representarse con muchos menos parámetros de los que contiene el modelo original. Esto aprovecha principios similares a la reducción de la dimensionalidad para capturar la información esencial para la adaptación de forma compacta. Una vez completado el entrenamiento, el pequeño adaptador puede fusionarse con los pesos originales o mantenerse separado para el cambio modular de tareas.
La eficacia de LoRA lo hace ideal para una amplia gama de aplicaciones, especialmente cuando se necesitan varios modelos personalizados.
Es útil distinguir LoRA de otras técnicas de adaptación de modelos:
En resumen, LoRA proporciona una forma potente y eficiente en recursos de personalizar grandes modelos básicos preentrenados para una amplia gama de tareas específicas tanto en Procesamiento del Lenguaje Natural (PLN) como en visión por ordenador, haciendo que la IA avanzada sea más práctica y accesible. Este enfoque permite gestionar y desplegar fácilmente muchos modelos especializados, un proceso agilizado por plataformas como Ultralytics HUB para gestionar los ciclos de vida de los modelos.