Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Halüsinasyon (LLM'lerde)

LLM'lerde AI halüsinasyonlarının nedenlerini ve risklerini keşfedin. Ultralytics ile RAG, RLHF ve temellendirmeyi kullanarak gerçek hatalarını nasıl azaltabileceğinizi öğrenin.

Yapay Zeka (AI) alanında halüsinasyon, Büyük Dil Modeli'nin (LLM) güvenilir ve sözdizimsel olarak doğru ancak gerçeklere aykırı, anlamsız veya kaynak girdisine sadık olmayan içerik üretmesi olarak tanımlanır. Çökmeye veya görünür bir hataya neden olabilecek standart yazılım hatalarından farklı olarak, halüsinasyon gören bir model ikna edici bir uydurucu gibi davranır ve geçerli gerçeklerle aynı otoriteyle yanlış bilgiler sunar. Bu durum, veri bütünlüğünün çok önemli olduğu sağlık, hukuk ve finans gibi hassas alanlarda Üretken AI'yı kullanan kuruluşlar için önemli zorluklar yaratır.

Halüsinasyonlar Neden Oluşur?

Modellerin neden halüsinasyon gördüğünü anlamak için, bunların nasıl oluşturulduğuna bakmak faydalıdır. LLM'ler genellikle gelişmiş bir tahmin motoru olarak işlev gören Transformer mimarisine dayanır. Model, doğrulanmış gerçeklerin yapılandırılmış bir veritabanını sorgulamak yerine, eğitim verilerinden elde edilen istatistiksel olasılıklara dayalı olarak bir dizideki bir sonraki belirteci tahmin eder.

Bu davranışı birkaç faktör tetiklemektedir:

  • Olasılıksal Tahmin: Model, gerçekler üzerinde akıcılık ve tutarlılığı önceliklendirir. Belirli bir kelime dizisi istatistiksel olarak olasıysa, gerçekte yanlış olsa bile, model bunu üretebilir. Bu kavram, modellerin anlamı anlamadan dil kalıplarını taklit ettiği stokastik papağanlarla ilgili araştırmalarda sıklıkla tartışılır. .
  • Veri Kalitesi Sorunları: Eğitim için kullanılan büyük metin külliyatı çelişkiler, güncel olmayan bilgiler veya kurgu içerirse, model bu yanlışlıkları yeniden üretebilir.
  • Kaynak Amnezi: LLM'ler büyük miktarda bilgiyi model ağırlıklarına sıkıştırır. Bu süreçte, genellikle belirli kaynaklarla olan bağlantılarını kaybederler ve bu da farklı kavramların veya olayların yanlış bir şekilde birleştirildiği "konfabülasyon"a yol açar. Bu, LLM'lerin belirli bir bilgiyi hatırlayamadığı, ancak aynı bilgiyi içeren başka bir bilgiyi hatırlayabildiği durumlarda ortaya çıkar. Bu, LLM'lerin belirli bir bilgiyi hatırlayamadığı, ancak aynı bilgiyi içeren başka bir bilgiyi hatırlayabildiği durumlarda ortaya çıkar.

Halüsinasyonun Gerçek Dünya Örnekleri

Halüsinasyonlar, zararsız yaratıcı süslemelerden ciddi gerçek hatalarına kadar çeşitli şekillerde ortaya çıkabilir:

  • Yasal Uydurma: Hukukçuların AI'yı kullanarak dava özetleri hazırladıkları, ancak modelin argümanlarını desteklemek için var olmayan dava örnekleri ve alıntılar uydurduğu belgelenmiş örnekler vardır.
  • Kod Oluşturma: AI asistanlarını kullanan geliştiriciler, modelin, sadece adı standart adlandırma kurallarına uygun olduğu için, aslında mevcut olmayan bir yazılım kütüphanesini içe aktarmayı veya bir işlevi çağırmayı önerdiği "paket halüsinasyonları" ile karşılaşabilirler.
  • Biyografik Hatalar: Daha az tanınmış kişiler hakkında soru sorulduğunda, modeller kendilerine güvenerek onlara yanlış başarılar, doğum yerleri veya kariyer geçmişleri atfedebilirler, bu da birden fazla kişinin ayrıntılarını etkili bir şekilde harmanlamalarına neden olur.

Hafifletme Stratejileri

Halüsinasyonların sıklığını azaltmak, AI Güvenliği'nin ana odak noktasıdır. Mühendisler ve araştırmacılar, modelleri gerçekliğe dayandırmak için çeşitli teknikler kullanır:

  • Geri Alma ile Güçlendirilmiş Üretim (RAG): Bu yöntem, LLM'yi genellikle bir vektör veritabanında indekslenen harici, güvenilir bir bilgi tabanına bağlar. Bir cevap üretmeden önce ilgili belgeleri geri alarak, model gerçek verilerle sınırlandırılır.
  • Düşünce Zinciri Teşviki: Bu teşvik mühendisliği tekniği, karmaşık muhakemeyi ara adımlara bölerek modelin "çalışmasını göstermesini" teşvik eder ve bu da genellikle mantık hatalarını azaltır.
  • İnsan Geri Bildiriminden Güçlendirme Öğrenimi (RLHF): İnce ayar aşamasında, insan değerlendiriciler modelin yanıtlarını sıralar. Halüsinasyonları cezalandırarak ve doğruluğu ödüllendirerek, model insan beklentileriyle daha iyi uyum sağlamayı öğrenir .

LLM'leri Bilgisayarla Görme ile Topraklama

Multimodal AI sistemlerinde, metin üretimi görsel veriler kullanılarak temellendirilebilir. Bir LLM'den bir sahneyi tanımlaması istenirse, orada olmayan nesneleri hayal edebilir. YOLO26 gibi yüksek hassasiyetli bir nesne algılayıcıyı entegre ederek, geliştiriciler LLM'ye mevcut nesnelerin gerçekçi bir listesini sağlayabilir ve çıktısını doğrulanmış algılamalarla sınırlayabilir.

Aşağıdaki Python , ultralytics paketi kullanarak doğrulanmış bir nesne listesi çıkarın. Bu liste, dil modeli komut istemleri için gerçekçi bir kısıtlama görevi görebilir.

from ultralytics import YOLO

# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

İlgili Kavramların Farklılaştırılması

Halüsinasyonları diğer yaygın AI hatalarından ayırt etmek önemlidir:

  • Yapay zekadaki önyargı: Önyargı, çıktılarda sistematik bir önyargıyı ifade eder (örneğin, bir demografik grubu diğerine tercih etmek), halüsinasyon ise gerçeklerin doğruluğunda bir hatadır. Bir yanıt önyargısız ancak halüsinasyonlu olabilir (örneğin, "Ay peynirden yapılmıştır").
  • Aşırı uyumlama ile karşılaştırıldığında: Aşırı uyumlama, bir model eğitim verilerini çok yakından ezberlediğinde ve yeni girdilere genelleme yapamadığında ortaya çıkar. Halüsinasyonlar genellikle bir model, veri eksikliği olan alanlara çok fazla genelleme yapmaya çalıştığında ortaya çıkar.
  • Yanlış sınıflandırma ile karşılaştırıldığında: Nesne algılamada, bir arabayı kamyon olarak etiketlemek bir sınıflandırma hatasıdır (doğruluk sorunu), halüsinasyon değildir. Halüsinasyon, yanlış içeriğin üretilmesine özgüdür. Yanlış sınıflandırma ise, doğru içeriğin yanlış sınıflandırılmasıdır.

Aşağı akış hatalarını önlemek için veri bütünlüğü yüksek veri kümelerini yönetmek ve modelleri eğitmek isteyenler için Ultralytics , açıklama ve veri kümesi yönetimi için kapsamlı araçlar sunar. Ayrıca, NIST AI Risk Management Framework'ün rehberliği, üretim ortamlarında bu riskleri değerlendirmek ve azaltmak için standartlar sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın