Enriquecimento de prompts
Domine a IA com enriquecimento imediato! Melhore os resultados dos Large Language Models utilizando o contexto, instruções claras e exemplos para obter resultados precisos.
O enriquecimento de prompts é o processo automatizado de adicionar, de forma programática, contexto ou informações relevantes ao prompt inicial de um utilizador antes de este ser enviado para um modelo de IA, especialmente um Modelo de Linguagem Ampla (LLM). O objetivo é transformar uma consulta simples ou ambígua do utilizador numa instrução detalhada, específica e contextualizada. Este passo de pré-processamento ajuda o modelo de IA a compreender melhor a intenção do utilizador, conduzindo a respostas significativamente mais precisas, personalizadas e úteis sem alterar o próprio modelo.
Como funciona o enriquecimento por meio de prompts
O enriquecimento de prompts actua como uma camada de middleware inteligente. Quando um utilizador submete uma consulta, é interceptada por um sistema automatizado. Este sistema recolhe então dados contextuais de várias fontes, como perfis de utilizador, histórico de conversação, dados de sessão (como o tipo de dispositivo ou a localização) ou bases de dados externas. Em seguida, injecta dinamicamente estas informações na mensagem original. O prompt "enriquecido" resultante, agora contendo a consulta do utilizador e o contexto adicionado, é finalmente passado para o LLM para processamento. Isto melhora a capacidade do modelo para efetuar tarefas complexas de compreensão da linguagem natural (NLU).
Aplicações no mundo real
- Suporte ao cliente personalizado: Um utilizador interage com um chatbot de comércio eletrónico e escreve: "Onde está a minha encomenda?" O sistema de enriquecimento de mensagens pode obter automaticamente os detalhes da conta do utilizador e o seu número de encomenda mais recente a partir de uma base de dados CRM. A mensagem enviada para o modelo torna-se: "O cliente ID 98765 está a perguntar sobre o estado da sua encomenda mais recente, #ABC-12345. A pergunta original do utilizador: 'Onde está a minha encomenda?'". Isto permite que o agente de serviço ao cliente orientado por IA forneça uma atualização instantânea e específica em vez de pedir informações de esclarecimento.
- Recomendação de conteúdos mais inteligente: Um utilizador de um serviço de streaming diz: "Recomendar um filme". Isto é demasiado vago para uma boa recomendação. O processo de enriquecimento pode aumentar este pedido com dados como o histórico de visualização do utilizador, as suas preferências de género declaradas e a hora do dia. O pedido final pode ser semelhante a: "O utilizador gostou recentemente de thrillers de ficção científica e dramas históricos. É um sábado à noite. Recomende um filme que se enquadre nestes critérios". Isto leva a uma sugestão mais relevante do sistema de recomendação e melhora a experiência do utilizador através da personalização.
Enriquecimento do prompt vs. conceitos relacionados
É importante distinguir o enriquecimento imediato de termos semelhantes:
- Engenharia rápida: Esta é a disciplina alargada da conceção de prompts eficazes. O enriquecimento de prompts é uma técnica específica e automatizada dentro da engenharia de prompts que se concentra em adicionar contexto dinâmico à entrada de um utilizador.
- Geração Aumentada por Recuperação (RAG): O RAG é um tipo poderoso e específico de enriquecimento de estímulos. É especializado na recuperação de informações factuais de uma base de conhecimentos externa para fundamentar o resultado do modelo e evitar alucinações. Embora o RAG seja uma forma de enriquecimento, este também pode utilizar outras fontes de contexto, como os dados da sessão do utilizador, que não fazem parte de uma base de conhecimentos estática.
- Encadeamento de prompts: Esta técnica divide uma tarefa numa sequência de vários prompts interligados, em que o resultado de um prompt alimenta o seguinte. O enriquecimento, por outro lado, modifica um único prompt antes de ser processado. Uma etapa de enriquecimento de um prompt pode fazer parte de uma cadeia maior, muitas vezes como etapa inicial. Outras técnicas, como o Chain-of-Thought (CoT) Prompting, centram-se na melhoria do raciocínio numa única interação.
- Sintonização rápida: Este é um método de treino de modelos. Como uma técnica de afinação eficiente de parâmetros (PEFT), adapta o comportamento de um modelo treinando um pequeno conjunto de novos parâmetros. O enriquecimento de prompts é uma técnica de tempo de inferência que manipula a consulta de entrada e não altera os pesos do modelo.
Embora seja mais comum no Processamento de Linguagem Natural (PLN), a ideia central é aplicável em toda a aprendizagem automática. Na visão computacional, um conceito semelhante poderia envolver a adição de metadados (por exemplo, localização, hora) a uma imagem para melhorar o desempenho de um modelo como o Ultralytics YOLO11 numa tarefa de deteção de objectos. As plataformas MLOps, como o Ultralytics HUB, fornecem a infraestrutura necessária para a implantação de modelos robustos, onde podem ser implementados pipelines de entrada sofisticados usando enriquecimento e estruturas como LangChain ou LlamaIndex.