Descubre cómo LoRA afina grandes modelos de IA como YOLO de forma eficiente, reduciendo costes y permitiendo el despliegue en el borde con recursos mínimos.
LoRA (Adaptación de Bajo Rango) es una técnica eficaz que se utiliza para adaptar grandes modelos de aprendizaje automático (AM) preentrenados, como los utilizados para el procesamiento del lenguaje natural (PLN) o la visión por ordenador (VC), a tareas o conjuntos de datos específicos sin volver a entrenar todo el modelo. Reduce significativamente el coste computacional y los requisitos de memoria asociados al ajuste fino de modelos masivos, haciendo más accesible la IA avanzada. LoRA se engloba dentro de los métodos de Ajuste Fino Eficiente de Parámetros (PEFT ), que se centran en adaptar modelos con cambios mínimos en sus parámetros.
El ajuste fino tradicional consiste en actualizar todos los parámetros (o pesos del modelo) de un modelo preentrenado utilizando nuevos datos. Para modelos con miles de millones de parámetros, como muchos LLM modernos o grandes modelos de visión, este proceso exige importantes recursos informáticos, en particular GPU y tiempo. LoRA se basa en el principio, respaldado por la investigación, de que los cambios necesarios para adaptar un modelo suelen residir en un espacio de menor dimensión, lo que significa que no es necesario alterar cada uno de los pesos.
En lugar de modificar todos los pesos originales, LoRA los congela e inyecta matrices de "bajo rango" más pequeñas y entrenables en capas específicas de la arquitectura del modelo, a menudo dentro de bloques Transformadores (un componente común en muchos modelos grandes, que se explica con más detalle en el artículo La atención es todo lo que necesitas). Sólo estas matrices recién añadidas (a menudo llamadas adaptadores) se actualizan durante el proceso de ajuste. Esto reduce drásticamente el número de parámetros entrenables, a menudo en órdenes de magnitud (por ejemplo, millones en lugar de miles de millones), al tiempo que se consigue un rendimiento comparable al del ajuste fino completo en muchos casos. El documento de investigación original de LoRA proporciona más detalles técnicos sobre la metodología y su eficacia. Este enfoque hace que el proceso de ajuste fino sea significativamente más rápido y consuma menos memoria.
La principal ventaja de la LoRA es su eficacia, que conlleva varios beneficios clave:
La eficacia de LoRA la hace valiosa en diversos ámbitos:
Es útil distinguir la LoRA de otras técnicas de adaptación de modelos:
En resumen, LoRA proporciona una forma potente y eficiente en recursos de personalizar grandes modelos básicos preentrenados para una amplia gama de tareas específicas tanto en PNL como en visión por ordenador, haciendo que la IA avanzada sea más práctica y accesible.