Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Alucinação (em LLMs)

Descubra o que causa alucinações em Large Language Models (LLMs) e explore estratégias eficazes para mitigar imprecisões em conteúdo gerado por IA.

No contexto de Modelos de Linguagem Grandes (LLMs), uma alucinação se refere a um fenômeno onde o modelo gera texto que é confiante e com som plausível, mas é factualmente incorreto, sem sentido ou não fundamentado nos dados de origem fornecidos. Esses modelos, projetados para geração de texto avançada, podem às vezes inventar fatos, fontes ou detalhes, apresentando-os como se fossem verdadeiros. Isso acontece porque o objetivo principal de um LLM é prever a próxima palavra em uma sequência para formar frases coerentes, não para verificar a veracidade das informações que gera. Compreender e mitigar as alucinações é um desafio central para tornar a IA Generativa mais confiável.

Por que os LLMs alucinam?

As alucinações não são enganos intencionais, mas sim subprodutos de como os LLMs são construídos e treinados. As principais causas incluem:

  • Imperfeições nos Dados de Treino: Modelos como o GPT-3 e o GPT-4 aprendem com imensos volumes de texto da internet, que inevitavelmente contêm erros, informações desatualizadas e vieses algorítmicos. O modelo aprende esses padrões a partir dos seus dados de treino sem uma compreensão inerente da verdade.
  • Design Arquitetônico: A arquitetura Transformer subjacente é otimizada para correspondência de padrões e modelagem de linguagem, não para recuperação factual ou raciocínio lógico. Isso pode levar ao que alguns pesquisadores chamam de "papagaio estocástico", uma entidade que pode imitar a linguagem sem entender seu significado.
  • Ambiguidade no Tempo de Inferência: Durante a geração, se o modelo estiver incerto sobre o próximo token ideal, ele pode "preencher as lacunas" com informações plausíveis, mas fabricadas. Ajustar parâmetros de inferência como a temperatura pode, às vezes, reduzir isso, mas continua sendo um desafio central. Para uma visão geral técnica, consulte esta pesquisa sobre alucinações de LLM do arXiv.

Exemplos Reais de Alucinações

  • Pesquisa Jurídica: Um advogado que usava um assistente de IA para pesquisa de casos pediu que ele encontrasse precedentes legais. O chatbot citou vários casos judiciais completamente inventados, incluindo nomes de casos e análises legais, que eram plausíveis, mas inexistentes. Este incidente do mundo real destacou os sérios riscos de implantação de LLMs em áreas de alto risco sem verificação robusta de fatos.
  • Recomendações de Produtos: Um usuário pede a um chatbot a "melhor mochila de caminhada com um painel solar embutido". O LLM pode recomendar com confiança um modelo específico, descrevendo seus recursos em detalhes, mesmo que esse produto ou combinação de recursos em particular não exista. O modelo combina conceitos de seus dados de treinamento para criar um produto plausível, mas fictício.

Como Reduzir Alucinações

Pesquisadores e desenvolvedores estão trabalhando ativamente em várias estratégias de mitigação:

Alucinação vs. Outros Erros de IA

  • Viés em IA: Viés em IA refere-se a erros sistemáticos onde as saídas de um modelo favorecem injustamente certos grupos, geralmente refletindo vieses sociais ou de conjunto de dados. Alucinação é sobre incorreção factual, não necessariamente preconceito. Ambos são preocupações sérias na ética da IA.
  • Erros de Visão Computacional: O conceito de alucinação está principalmente associado ao Processamento de Linguagem Natural (PLN). Em Visão Computacional (VC), um erro normalmente significa que um modelo como o Ultralytics YOLO comete um erro na detecção de objetos (por exemplo, classificando incorretamente um gato como um cachorro) ou não consegue detectar um objeto, o que se relaciona com sua precisão. Este é um erro de percepção, não uma invenção de informação. No entanto, como os modelos multimodais que combinam visão e linguagem se tornam mais comuns, eles também podem "alucinar" descrições incorretas de imagens. O gerenciamento de ambos os tipos de modelos pode ser simplificado em plataformas como o Ultralytics HUB.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência