Ajuste de Prompts (Prompt Tuning)
Otimize modelos de linguagem grandes de forma eficiente com Prompt Tuning — reduza custos, economize recursos e alcance adaptabilidade específica para tarefas sem esforço.
O ajuste de prompts é uma técnica poderosa e eficiente para adaptar grandes modelos pré-treinados, como Modelos de Linguagem Grandes (LLMs), a novas tarefas sem alterar os pesos do modelo original. É uma forma de Ajuste Fino Eficiente em Parâmetros (PEFT) que mantém os bilhões de parâmetros no modelo base congelados e, em vez disso, aprende um pequeno conjunto de "soft prompts" específicos da tarefa. Esses soft prompts não são texto legível por humanos, mas são embeddings aprendíveis anexados à entrada, que orientam o modelo congelado a produzir a saída desejada para uma tarefa downstream específica. Esta abordagem reduz drasticamente o custo computacional e o armazenamento necessários para a adaptação específica da tarefa, conforme documentado no artigo de pesquisa original do Google AI.
A ideia central é treinar apenas alguns milhares ou milhões de parâmetros extras (o prompt suave) por tarefa, em vez de retreinar ou ajustar todo o modelo, que poderia ter bilhões de parâmetros. Isso torna viável criar muitos "módulos de prompt" especializados para um único modelo pré-treinado, cada um adaptado a uma tarefa diferente, sem criar cópias completas do modelo. Este método também ajuda a mitigar o esquecimento catastrófico, onde um modelo esquece informações aprendidas anteriormente quando treinado em uma nova tarefa.
Aplicações no Mundo Real
O ajuste de prompts permite a personalização de modelos de fundação poderosos para uma ampla gama de aplicações especializadas.
- Análise de Sentimentos Personalizada: Uma empresa deseja analisar o feedback do cliente para seus produtos específicos. Um modelo de análise de sentimentos de propósito geral pode não entender o jargão específico do setor. Usando o ajuste de prompt, a empresa pode adaptar um modelo grande como o BERT treinando um pequeno conjunto de prompts suaves em suas próprias avaliações de clientes rotuladas. O modelo resultante pode classificar com precisão o feedback sem a necessidade de treinamento completo do modelo, fornecendo insights mais sutis.
- Chatbots Médicos Especializados: Uma organização de saúde pretende construir um chatbot que responda às perguntas dos pacientes sobre condições médicas específicas. Treinar totalmente um LLM médico grande é intensivo em recursos. Em vez disso, eles podem usar o ajuste de prompt em um modelo pré-treinado como o GPT-4. Ao treinar um prompt específico para a tarefa em um conjunto de dados médicos selecionado, o chatbot aprende a fornecer respostas precisas e contextualmente conscientes para esse domínio, tornando a poderosa IA na área da saúde mais acessível.
Ajuste de Prompts (Prompt Tuning) vs. Conceitos Relacionados
É importante distinguir o Prompt Tuning de técnicas semelhantes:
- Ajuste Fino (Fine-tuning): Este método atualiza uma grande parte, ou mesmo todos, dos parâmetros de um modelo pré-treinado em um novo conjunto de dados. É mais intensivo em termos computacionais, mas às vezes pode alcançar um desempenho superior, adaptando profundamente as representações internas do modelo. Dicas de treinamento de modelo frequentemente cobrem aspectos do ajuste fino.
- Engenharia de Prompt: Isso se concentra em projetar manualmente prompts eficazes baseados em texto (prompts hard) para orientar um modelo pré-treinado congelado. Envolve a elaboração de instruções e exemplos dentro do próprio texto de entrada e não envolve o treinamento de novos parâmetros. Técnicas como prompting chain-of-thought se enquadram nesta categoria.
- Enriquecimento de Prompt: Esta técnica aprimora automaticamente o prompt de um usuário, adicionando contexto, por exemplo, usando Geração Aumentada por Recuperação (RAG), antes de ser enviado ao modelo de IA. Ao contrário do ajuste de prompt, ele refina a consulta de entrada sem treinar novos parâmetros.
- LoRA (Adaptação de Baixa Classificação): Outra técnica PEFT que injeta pequenas matrizes de baixa classificação treináveis em camadas existentes (como o mecanismo de atenção) do modelo pré-treinado. Ele atualiza diferentes partes do modelo em comparação com o Prompt Tuning, que se concentra apenas em embeddings de entrada. Ambos são frequentemente encontrados em bibliotecas como a biblioteca Hugging Face PEFT.
Embora o ajuste de prompts seja predominantemente aplicado a LLMs no Processamento de Linguagem Natural (PNL), o princípio central da adaptação eficiente é relevante em toda a Inteligência Artificial (IA). Na Visão Computacional (CV), embora o ajuste fino completo de modelos como o Ultralytics YOLO em conjuntos de dados personalizados seja comum para tarefas como a detecção de objetos, os métodos PEFT estão ganhando força, especialmente para grandes modelos multimodais. Plataformas como o Ultralytics HUB simplificam o processo de treinamento e implementação de vários modelos de IA, potencialmente incorporando tais técnicas eficientes no futuro.