Glossário

Alucinação (em LLMs)

Descubra o que causa as alucinações nos modelos de linguagem de grande dimensão (LLM) e explore estratégias eficazes para atenuar as imprecisões nos conteúdos gerados por IA.

No contexto dos Modelos de Linguagem de Grande Escala (MLG), uma alucinação refere-se a um fenómeno em que o modelo gera um texto confiante e plausível, mas factualmente incorreto, sem sentido ou não fundamentado nos dados de origem fornecidos. Estes modelos, concebidos para a geração avançada de texto, podem por vezes inventar factos, fontes ou detalhes, apresentando-os como se fossem verdadeiros. Isto acontece porque o objetivo principal de um LLM é prever a palavra seguinte numa sequência para formar frases coerentes, e não verificar a veracidade da informação que gera. Compreender e atenuar as alucinações é um desafio central para tornar a IA generativa mais fiável.

Porque é que os LLMs alucinam?

As alucinações não são enganos intencionais, mas são subprodutos da forma como os LLMs são construídos e treinados. As principais causas incluem:

  • Imperfeições dos dados de treino: Modelos como o GPT-3 e o GPT-4 aprendem com imensos volumes de texto da Internet, que inevitavelmente contêm erros, informações desactualizadas e preconceitos algorítmicos. O modelo aprende estes padrões a partir dos seus dados de treino sem uma compreensão inerente da verdade.
  • Conceção arquitetónica: A arquitetura subjacente do Transformer está optimizada para a correspondência de padrões e modelação de linguagem, e não para a recordação de factos ou raciocínio lógico. Isto pode levar ao que alguns investigadores chamam de"papagaio estocástico", uma entidade que pode imitar a linguagem sem compreender o seu significado.
  • Ambiguidade no tempo de inferência: Durante a geração, se o modelo não tiver a certeza da próxima melhor ficha, pode "preencher as lacunas" com informação plausível mas fabricada. Ajustar os parâmetros de inferência, como a temperatura, pode por vezes reduzir este fenómeno, mas continua a ser um desafio fundamental. Para uma panorâmica técnica, ver este inquérito sobre alucinações LLM do arXiv.

Exemplos reais de alucinação

  • Investigação jurídica: Um advogado que utilizava um assistente de IA para pesquisar casos pediu-lhe que encontrasse precedentes jurídicos. O chatbot citou vários processos judiciais completamente fabricados, incluindo nomes de processos e análises jurídicas, que eram plausíveis mas inexistentes. Este incidente do mundo real realçou os graves riscos da utilização de LLMs em áreas de grande importância sem uma verificação rigorosa dos factos.
  • Recomendações de produtos: Um utilizador pergunta a um chatbot qual é a "melhor mochila para caminhadas com um painel solar incorporado". O LLM pode recomendar com confiança um modelo específico, descrevendo as suas caraterísticas em pormenor, mesmo que esse produto específico ou combinação de caraterísticas não exista. O modelo combina conceitos dos seus dados de treino para criar um produto plausível mas fictício.

Como reduzir as alucinações

Os investigadores e os criadores estão a trabalhar ativamente em várias estratégias de atenuação:

Alucinação vs. outros erros de IA

  • Preconceito na IA: O preconceito na IA refere-se a erros sistemáticos em que os resultados de um modelo favorecem injustamente determinados grupos, reflectindo normalmente preconceitos sociais ou do conjunto de dados. A alucinação diz respeito a incorrecções factuais, não necessariamente a preconceitos. Ambas são preocupações sérias na ética da IA.
  • Erros de visão por computador: O conceito de alucinação está principalmente associado ao Processamento de Linguagem Natural (PNL). Na Visão por Computador (CV), um erro significa normalmente que um modelo como o Ultralytics YOLO comete um erro na deteção de objectos (por exemplo, classificar erradamente um gato como um cão) ou não consegue detetar um objeto, o que está relacionado com a sua precisão. Trata-se de um erro de perceção e não de uma invenção de informação. No entanto, à medida que os modelos multimodais que combinam visão e linguagem se tornam mais comuns, também podem "alucinar" descrições incorrectas de imagens. A gestão de ambos os tipos de modelos pode ser simplificada em plataformas como o Ultralytics HUB.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência