Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

LoRA (Adaptação de Baixa Patente)

Descubra como o LoRA ajusta finamente grandes modelos de IA como o YOLO de forma eficiente, reduzindo custos e permitindo a implantação de borda com recursos mínimos.

LoRA, ou Low-Rank Adaptation, é uma técnica altamente eficiente usada para adaptar grandes modelos de aprendizado de máquina (ML) pré-treinados para tarefas específicas, sem a necessidade de treinar novamente todo o modelo. Originalmente detalhado em um artigo de pesquisadores da Microsoft, o LoRA se tornou uma pedra angular do Parameter-Efficient Fine-Tuning (PEFT). Ele reduz drasticamente o custo computacional e os requisitos de armazenamento associados à personalização de modelos massivos, como Large Language Models (LLMs) e outros modelos de fundação.

Como o LoRA Funciona

Em vez de atualizar os bilhões de pesos do modelo em um modelo pré-treinado, o LoRA congela todos eles. Em seguida, injeta um par de pequenas matrizes treináveis—chamadas adaptadores de baixa patente—em camadas específicas do modelo, geralmente dentro do mecanismo de atenção de uma arquitetura Transformer. Durante o processo de treinamento, apenas os parâmetros dessas novas matrizes, muito menores, são atualizados. A ideia central é que as mudanças necessárias para adaptar o modelo a uma nova tarefa podem ser representadas com muito menos parâmetros do que o modelo original contém. Isso aproveita princípios semelhantes à redução de dimensionalidade para capturar as informações essenciais para a adaptação de forma compacta. Uma vez concluído o treinamento, o pequeno adaptador pode ser mesclado com os pesos originais ou mantido separado para a troca modular de tarefas.

Aplicações no Mundo Real

A eficiência do LoRA o torna ideal para uma ampla gama de aplicações, especialmente onde vários modelos personalizados são necessários.

  • Personalizando Chatbots: Uma empresa pode pegar um LLM poderoso e de propósito geral e usar o LoRA para treiná-lo em sua base de conhecimento interna. Isso cria um chatbot de atendimento ao cliente especializado que entende a terminologia específica da empresa sem o custo imenso do ajuste fino completo.
  • Arte de IA e Transferência de Estilo: Artistas e designers usam LoRA para adaptar modelos de IA generativa como Stable Diffusion a um estilo artístico específico. Ao treinar um adaptador em um pequeno conjunto de suas próprias imagens, eles podem gerar nova arte que imita sua estética única, uma prática popular em plataformas como Hugging Face.

LoRA vs. Conceitos Relacionados

É útil distinguir LoRA de outras técnicas de adaptação de modelos:

  • Ajuste Fino Completo: Este método atualiza todos os pesos de um modelo pré-treinado em um novo conjunto de dados. Embora seja frequentemente eficaz, requer recursos computacionais significativos (GPU) e armazenamento para cada modelo adaptado. O LoRA, em contraste, congela os pesos originais e treina apenas as pequenas matrizes adaptadoras injetadas. Encontre mais detalhes em nossa entrada do glossário sobre ajuste fino e na visão geral do ajuste fino da NVIDIA.
  • Ajuste de Prompt: Esta técnica mantém os pesos do modelo completamente congelados e, em vez disso, aprende "soft prompts" contínuos (vetores adicionados às incorporações de entrada) para direcionar o comportamento do modelo para tarefas específicas. Ao contrário do LoRA, não modifica nenhum peso do modelo, mas se concentra puramente em adaptar a representação de entrada. Leia mais sobre ajuste de prompt e engenharia de prompt.
  • Outros Métodos PEFT: LoRA é apenas uma técnica dentro do campo mais amplo de Ajuste Fino com Eficiência de Parâmetros (PEFT). Outros métodos incluem Adapter Tuning (semelhante, mas com estruturas de adaptador ligeiramente diferentes), Prefix Tuning e IA³, cada um oferecendo diferentes compensações em eficiência de parâmetros e desempenho. Esses métodos estão comumente disponíveis em frameworks como a biblioteca Hugging Face PEFT.

Em resumo, o LoRA fornece uma maneira poderosa e eficiente em termos de recursos para personalizar grandes modelos de fundação pré-treinados para uma ampla gama de tarefas específicas, tanto em Processamento de Linguagem Natural (PNL) quanto em visão computacional, tornando a IA avançada mais prática e acessível. Essa abordagem permite o gerenciamento e a implantação fáceis de muitos modelos especializados, um processo simplificado por plataformas como o Ultralytics HUB para gerenciar os ciclos de vida dos modelos.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência