Alucinação (em LLMs)
Learn why Large Language Models (LLMs) hallucinate and how to mitigate risks. Explore grounding techniques using [YOLO26](https://docs.ultralytics.com/models/yolo26/) and the [Ultralytics Platform](https://platform.ultralytics.com) to ensure AI factual accuracy.
No domínio da Inteligência Artificial (IA), uma alucinação refere-se a um fenómeno em que um
Modelo de Linguagem Grande (LLM) gera
conteúdo que é confiante e sintaticamente correto, mas factualmente impreciso, sem sentido ou infiel à fonte de
entrada. Ao contrário dos erros de software padrão que podem produzir uma falha ou uma falha visível, um modelo alucinante comporta-se
como um fabricante convincente, apresentando informações falsas com a mesma autoridade que fatos válidos. Isso representa
desafios significativos para as organizações que implementam
IA generativa em áreas sensíveis, como saúde,
direito e finanças, onde a integridade dos dados é fundamental.
Por que ocorrem alucinações?
Para entender por que os modelos têm alucinações, é útil observar como eles são construídos. Os LLMs são normalmente baseados na
arquitetura Transformer, que funciona como um
sofisticado mecanismo de previsão. Em vez de consultar um banco de dados estruturado de fatos verificados, o modelo prevê o
próximo token em uma sequência com base em probabilidades estatísticas
derivadas de seus dados de treinamento.
Vários fatores impulsionam esse comportamento:
-
Adivinhação probabilística: O modelo prioriza a fluência e a coerência em detrimento da verdade factual. Se uma
sequência específica de palavras for estatisticamente provável — mesmo que factualmente errada —, o modelo poderá gerá-la. Esse conceito
é frequentemente discutido em pesquisas sobre
papagaios estocásticos, em que os modelos imitam padrões de linguagem
sem compreender o significado.
-
Problemas de qualidade dos dados: se o enorme corpus de texto usado para o treino contiver contradições,
informações desatualizadas ou ficção, o modelo poderá reproduzir essas imprecisões.
-
Fonte Amnésia: Os LLMs comprimem grandes quantidades de informação em
pesos de modelo. Neste processo, muitas vezes perdem a
ligação a fontes específicas, levando à «confabulação», onde conceitos ou eventos distintos são fundidos
incorretamente.
Exemplos Reais de Alucinações
As alucinações podem manifestar-se de várias formas, desde inofensivos embelezamentos criativos até erros factuais graves:
-
Fabricação jurídica: Há casos documentados em que profissionais do direito usaram IA para redigir
memórias, apenas para descobrir que o modelo havia inventado
processos judiciais inexistentes e
citações para sustentar um argumento.
-
Geração de código: Os programadores que utilizam assistentes de IA podem encontrar «alucinações de pacotes»,
em que o modelo sugere importar uma biblioteca de software ou chamar uma função que não existe realmente, simplesmente
porque o nome segue as convenções de nomenclatura padrão.
-
Erros biográficos: Quando questionados sobre indivíduos menos famosos, os modelos podem atribuir com confiança
conquistas, locais de nascimento ou histórias profissionais incorretas a eles, misturando efetivamente detalhes de várias pessoas.
Estratégias de Mitigação
Reduzir a frequência das alucinações é um dos principais focos da
Segurança da IA. Engenheiros e investigadores empregam várias
técnicas para fundamentar os modelos na realidade:
-
Geração Aumentada por Recuperação (RAG): Este método conecta o LLM a uma base de conhecimento externa e confiável,
frequentemente indexada em um
banco de dados vetorial. Ao recuperar documentos relevantes
antes de gerar uma resposta, o modelo é restringido por dados reais.
-
Sugestão de cadeia de pensamento: Esta
técnica de engenharia de sugestões incentiva o
modelo a «mostrar o seu trabalho», dividindo o raciocínio complexo em etapas intermediárias, o que muitas vezes reduz
os erros lógicos.
-
Aprendizagem por reforço a partir de feedback humano (RLHF): Durante a fase de ajuste fino, avaliadores humanos
classificam as respostas do modelo. Ao penalizar alucinações e recompensar a veracidade, o modelo aprende a alinhar-se
melhor com as expectativas humanas.
Fundamentar os LLMs com a visão computacional
Em sistemas de IA multimodal, a geração de texto pode ser
baseada em dados visuais. Se um LLM for solicitado a descrever uma cena, ele pode alucinar objetos que não estão lá. Ao
integrar um detetor de objetos de alta precisão como o YOLO26,
os programadores podem fornecer uma lista factual de objetos presentes ao LLM, limitando estritamente a sua saída a deteções verificadas
.
Python a seguir mostra como usar o ultralytics pacote para extrair uma lista verificada de
objetos, que pode então servir como uma restrição factual para um prompt de modelo de linguagem.
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Diferenciação de conceitos relacionados
É importante distinguir alucinações de outros erros comuns de IA:
-
Vs. Preconceito na IA: Preconceito refere-se a
um viés sistemático nos resultados (por exemplo, favorecer um grupo demográfico em detrimento de outro), enquanto alucinação é uma falha na
precisão factual. Uma resposta pode ser imparcial, mas alucinada (por exemplo, «A lua é feita de queijo»).
-
Vs. Sobrerajustamento: O sobrerajustamento ocorre
quando um modelo memoriza os dados de treino de forma demasiado rigorosa e não consegue generalizar para novos inputs. As alucinações ocorrem frequentemente
quando um modelo tenta generalizar demasiado em áreas onde carece de dados.
-
Vs. Classificação incorreta: Na
detecção de objetos, rotular um carro como um camião é um
erro de classificação (questão de precisão), não uma alucinação. A alucinação é específica para a criação generativa de
conteúdo falso.
Para aqueles que desejam gerir conjuntos de dados e treinar modelos com alta integridade de dados para evitar erros a jusante, Ultralytics oferece ferramentas abrangentes para anotação e
gestão de conjuntos de dados. Além disso, as orientações da
Estrutura de Gestão de Riscos de IA do NIST fornecem
padrões para avaliar e mitigar esses riscos em ambientes de produção.