Descubra o que causa alucinações em Large Language Models (LLMs) e explore estratégias eficazes para mitigar imprecisões em conteúdo gerado por IA.
No contexto de modelos linguísticos de grande dimensão (LLMs)uma alucinação ocorre quando um modelo generativo produz um conteúdo que é confiante e sintaticamente fluente mas mas factualmente incorreto, sem sentido ou infiel ao material de origem. Ao contrário dos erros normais de recuperação de bases de dados, as alucinações na IA generativa são são muitas vezes plausíveis, o que torna difícil a sua detect pelos utilizadores sem uma verificação independente. Este fenómeno Este fenómeno resulta da conceção fundamental destes modelos, que dão prioridade geração de texto baseada na probabilidade estatística em vez da validação da verdade. Compreender as alucinações é fundamental para a implementação de sistemas seguros de IA seguros, especialmente em sectores de alto risco como os cuidados de saúde, as finanças e os serviços jurídicos.
A causa principal da alucinação reside na Transformador e nos objectivos de formação utilizados para construir modelos de base. Estes sistemas são treinados para prever o próximo ficha numa sequência com base em padrões aprendidos a partir de grandes quantidades de dados de treino. Não possuem um conceito inerente de "facto" ou "ficção"; em vez disso, modelam a probabilidade de as palavras aparecerem juntas.
Vários factores contribuem para este comportamento:
As alucinações podem manifestar-se de várias formas, desde imprecisões subtis a fabricações completas:
ultralytics.detect_everything()) com base em convenções de nomenclatura padrão que viu nos seus
dados de treino, mesmo que essa função específica nunca tenha sido implementada.
A redução das alucinações é um dos principais objectivos da segurança da IA da IA. Atualmente, são utilizadas várias técnicas são atualmente utilizadas para fundamentar os modelos na realidade:
Uma forma eficaz de atenuar as alucinações em fluxos de trabalho multimodais é utilizar um deteção de objectos de alta precisão para verificar o conteúdo físico de uma imagem antes de um LLM a descrever. Ao introduzir uma lista verificada de objectos no contexto da LLM impede-o de inventar elementos que não estão lá.
O exemplo seguinte demonstra como utilizar Ultralytics YOLO11 para gerar uma uma lista de objectos de verdade, que pode então servir como uma restrição factual para um modelo generativo.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
É importante distinguir as alucinações de outros tipos de erros de IA:
Para mais leituras sobre a avaliação de modelos generativos, explorar a Quadro de gestão de riscos de IA do NIST fornece uma visão abrangente das normas de fiabilidade e segurança. Além disso, os investigadores continuam a desenvolver algoritmos de verificação de factos para detect e assinalar automaticamente conteúdos alucinatórios em tempo real.