Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Alucinação (em LLMs)

Learn why Large Language Models (LLMs) hallucinate and how to mitigate risks. Explore grounding techniques using [YOLO26](https://docs.ultralytics.com/models/yolo26/) and the [Ultralytics Platform](https://platform.ultralytics.com) to ensure AI factual accuracy.

No domínio da Inteligência Artificial (IA), uma alucinação refere-se a um fenómeno em que um Modelo de Linguagem Grande (LLM) gera conteúdo que é confiante e sintaticamente correto, mas factualmente impreciso, sem sentido ou infiel à fonte de entrada. Ao contrário dos erros de software padrão que podem produzir uma falha ou uma falha visível, um modelo alucinante comporta-se como um fabricante convincente, apresentando informações falsas com a mesma autoridade que fatos válidos. Isso representa desafios significativos para as organizações que implementam IA generativa em áreas sensíveis, como saúde, direito e finanças, onde a integridade dos dados é fundamental.

Por que ocorrem alucinações?

Para entender por que os modelos têm alucinações, é útil observar como eles são construídos. Os LLMs são normalmente baseados na arquitetura Transformer, que funciona como um sofisticado mecanismo de previsão. Em vez de consultar um banco de dados estruturado de fatos verificados, o modelo prevê o próximo token em uma sequência com base em probabilidades estatísticas derivadas de seus dados de treinamento.

Vários fatores impulsionam esse comportamento:

  • Adivinhação probabilística: O modelo prioriza a fluência e a coerência em detrimento da verdade factual. Se uma sequência específica de palavras for estatisticamente provável — mesmo que factualmente errada —, o modelo poderá gerá-la. Esse conceito é frequentemente discutido em pesquisas sobre papagaios estocásticos, em que os modelos imitam padrões de linguagem sem compreender o significado.
  • Problemas de qualidade dos dados: se o enorme corpus de texto usado para o treino contiver contradições, informações desatualizadas ou ficção, o modelo poderá reproduzir essas imprecisões.
  • Fonte Amnésia: Os LLMs comprimem grandes quantidades de informação em pesos de modelo. Neste processo, muitas vezes perdem a ligação a fontes específicas, levando à «confabulação», onde conceitos ou eventos distintos são fundidos incorretamente.

Exemplos Reais de Alucinações

As alucinações podem manifestar-se de várias formas, desde inofensivos embelezamentos criativos até erros factuais graves:

  • Fabricação jurídica: Há casos documentados em que profissionais do direito usaram IA para redigir memórias, apenas para descobrir que o modelo havia inventado processos judiciais inexistentes e citações para sustentar um argumento.
  • Geração de código: Os programadores que utilizam assistentes de IA podem encontrar «alucinações de pacotes», em que o modelo sugere importar uma biblioteca de software ou chamar uma função que não existe realmente, simplesmente porque o nome segue as convenções de nomenclatura padrão.
  • Erros biográficos: Quando questionados sobre indivíduos menos famosos, os modelos podem atribuir com confiança conquistas, locais de nascimento ou histórias profissionais incorretas a eles, misturando efetivamente detalhes de várias pessoas.

Estratégias de Mitigação

Reduzir a frequência das alucinações é um dos principais focos da Segurança da IA. Engenheiros e investigadores empregam várias técnicas para fundamentar os modelos na realidade:

  • Geração Aumentada por Recuperação (RAG): Este método conecta o LLM a uma base de conhecimento externa e confiável, frequentemente indexada em um banco de dados vetorial. Ao recuperar documentos relevantes antes de gerar uma resposta, o modelo é restringido por dados reais.
  • Sugestão de cadeia de pensamento: Esta técnica de engenharia de sugestões incentiva o modelo a «mostrar o seu trabalho», dividindo o raciocínio complexo em etapas intermediárias, o que muitas vezes reduz os erros lógicos.
  • Aprendizagem por reforço a partir de feedback humano (RLHF): Durante a fase de ajuste fino, avaliadores humanos classificam as respostas do modelo. Ao penalizar alucinações e recompensar a veracidade, o modelo aprende a alinhar-se melhor com as expectativas humanas.

Fundamentar os LLMs com a visão computacional

Em sistemas de IA multimodal, a geração de texto pode ser baseada em dados visuais. Se um LLM for solicitado a descrever uma cena, ele pode alucinar objetos que não estão lá. Ao integrar um detetor de objetos de alta precisão como o YOLO26, os programadores podem fornecer uma lista factual de objetos presentes ao LLM, limitando estritamente a sua saída a deteções verificadas .

Python a seguir mostra como usar o ultralytics pacote para extrair uma lista verificada de objetos, que pode então servir como uma restrição factual para um prompt de modelo de linguagem.

from ultralytics import YOLO

# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

Diferenciação de conceitos relacionados

É importante distinguir alucinações de outros erros comuns de IA:

  • Vs. Preconceito na IA: Preconceito refere-se a um viés sistemático nos resultados (por exemplo, favorecer um grupo demográfico em detrimento de outro), enquanto alucinação é uma falha na precisão factual. Uma resposta pode ser imparcial, mas alucinada (por exemplo, «A lua é feita de queijo»).
  • Vs. Sobrerajustamento: O sobrerajustamento ocorre quando um modelo memoriza os dados de treino de forma demasiado rigorosa e não consegue generalizar para novos inputs. As alucinações ocorrem frequentemente quando um modelo tenta generalizar demasiado em áreas onde carece de dados.
  • Vs. Classificação incorreta: Na detecção de objetos, rotular um carro como um camião é um erro de classificação (questão de precisão), não uma alucinação. A alucinação é específica para a criação generativa de conteúdo falso.

Para aqueles que desejam gerir conjuntos de dados e treinar modelos com alta integridade de dados para evitar erros a jusante, Ultralytics oferece ferramentas abrangentes para anotação e gestão de conjuntos de dados. Além disso, as orientações da Estrutura de Gestão de Riscos de IA do NIST fornecem padrões para avaliar e mitigar esses riscos em ambientes de produção.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora