Sözlük

Halüsinasyon (LLM'lerde)

Büyük Dil Modellerinde (LLM'ler) halüsinasyonlara neyin neden olduğunu keşfedin ve yapay zeka tarafından oluşturulan içerikteki yanlışlıkları azaltmak için etkili stratejileri keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Halüsinasyon, bir Büyük Dil Modelinin (LLM) kendinden emin ve tutarlı görünmesine rağmen anlamsız, gerçekte yanlış veya sağlanan girdi bağlamıyla ilgisi olmayan metinler ürettiği bir olguyu ifade eder. Bu çıktılar modelin eğitim verilerine veya dış gerçekliğe dayanmaz, bunun yerine modelin bir sonraki en olası kelimeyi veya belirteci tahmin etmeye çalışan iç süreçlerinin eserleridir. Halüsinasyonları anlamak, özellikle bilgi alma, içerik oluşturma veya sohbet robotları veya sanal asistanlar gibi platformlarda karar verme için kullanılan Yapay Zeka (AI) sistemlerini sorumlu bir şekilde geliştirmek ve dağıtmak için çok önemlidir.

Halüsinasyonlar Neden Oluşur?

Genellikle Transformer ("Attention Is All You Need" makalesinde tanıtılmıştır) gibi mimariler üzerine inşa edilen LLM'ler, temelde olasılıksal modellerdir. gibi çerçeveleri kullanarak eğitim sırasında büyük miktarda metin verisinden kalıpları, dilbilgisini ve olgusal ilişkileri öğrenirler. PyTorch veya TensorFlow. Bununla birlikte, gerçek anlayış, bilinç veya bilgiyi içsel olarak doğrulama yeteneğinden yoksundurlar. Halüsinasyonlar çeşitli faktörlerden kaynaklanabilir:

  • Eğitim Verisi Sınırlamaları: Model gürültülü, önyargılı veya gerçekte yanlış veriler üzerinde eğitilmiş olabilir veya belirli bir konu hakkında yeterli bilgiye sahip olmayabilir. Öğrenilmiş kalıplara dayanarak "boşlukları doldurmaya" çalışır ve bu da uydurmalara yol açar.
  • Model Mimarisi ve Eğitim: GPT-4 gibi modellerin bilgiyi işleme ve kelime kelime diziler oluşturma şekli, onları istatistiksel olarak makul ancak gerçekte yanlış yollara yönlendirebilir. Derin öğrenme modellerinin karmaşıklığı, onları öngörülemeyen davranışlara eğilimli hale getirir.
  • Kod Çözme Stratejisi: Metin oluşturma (çıkarım) sırasında kullanılan "sıcaklık" gibi parametreler rastgeleliği etkiler. Daha yüksek sıcaklıklar yaratıcılığı teşvik eder ancak halüsinasyon riskini artırır.
  • Temellendirme Eksikliği: Oluşturulan metni gerçek dünya bilgisine veya belirli kaynak belgelere bağlayacak mekanizmalar olmadan, model desteklenmeyen ifadelere sürüklenebilir. Topraklama gibi teknikler bunu ele almayı amaçlar.
  • İstem Belirsizliği: Belirsiz veya kötü formüle edilmiş istemler, modelin varsayımlarda bulunmasına veya daha az kısıtlı çıktılar üretmesine yol açarak yanlışlık olasılığını artırabilir. Etkili istem mühendisliği çok önemlidir.

Gerçek Dünyadan Örnekler ve Etki

Halüsinasyonlar çeşitli şekillerde ortaya çıkabilir ve yanlış bilgi yaymak, zararlı içerik oluşturmak veya kullanıcıların yapay zeka sistemlerine olan güvenini aşındırmak gibi önemli riskler oluşturabilir.

  1. Sohbet Robotlarında Gerçek Uydurma: Bir kullanıcı bir chatbot'a belirli bir bilimsel keşif hakkında soru sorabilir ve chatbot ayrıntıları uydurabilir, keşfi yanlış kişiye atfedebilir veya var olmayan bir olayı yüksek bir güvenle tanımlayabilir.
  2. Uydurma Yasal Alıntılar: Yaygın olarak rapor edilen bir olayda, avukatlar yasal araştırma için bir yapay zeka aracı kullandılar ve bu araç mahkeme belgelerinde sunulan ve yaptırımlara yol açan tamamen uydurma dava alıntıları üretti.

Bu etki basit hataların ötesine geçerek, özellikle arama motorlarına( Google'ın Yapay ZekaGenel Bakışları gibi), sanal asistanlara ve içerik oluşturma araçlarına entegre edildikçe YZ sistemlerinin güvenilirliğini zorlamaktadır. Bunu ele almak, YZ etiği ve güvenliğinde temel bir zorluktur ve sağlam doğrulama ve izleme stratejileri gerektirir.

Halüsinasyonları Diğer Hatalardan Ayırt Etme

Halüsinasyonları diğer yapay zeka hata türlerinden ayırmak önemlidir:

  • Yapay zekada önyargı: Bu, eğitim verilerinde mevcut önyargıları yansıtan sistematik hataları veya çarpık çıktıları ifade eder (örneğin, cinsiyet veya ırksal stereotipler). Halüsinasyonlar tipik olarak tutarlı, önyargılı çıktılardan ziyade daha rastgele uydurmalardır. Veri seti önyargısını anlamak burada çok önemlidir.
  • Aşırı uyum: Bu durum, bir model eğitim verilerini gürültü de dahil olmak üzere çok iyi öğrendiğinde ve yeni, görülmemiş verilere(doğrulama verileri) genelleme yapamadığında ortaya çıkar. Aşırı uyum kötü performansa yol açsa da, tamamen yeni, yanlış bilgi üretmekten farklıdır.
  • Güncel Olmayan Bilgiler: Bir LLM, eğitim verileri güncel olmadığı için yanlış bilgi sağlayabilir. Bu, bilginin icat edildiği bir halüsinasyon değil, bilgi kesintisine dayalı gerçek bir hatadır.

Hafifletme Stratejileri

Araştırmacılar ve geliştiriciler LLM halüsinasyonlarını azaltmak için aktif olarak çalışmaktadır:

  • Geliştirilmiş Eğitim Verileri: Daha yüksek kaliteli, çeşitli ve doğruluğu kontrol edilmiş veri kümeleri oluşturmak. Yüksek kaliteli kıyaslama veri setleri kullanmak yardımcı olur.
  • Alımla Artırılmış Üretim (RAG): LLM'lerin bir yanıt oluşturmadan önce harici, güvenilir bilgi tabanlarından(vektör veritabanları gibi) bilgi getirme ve alıntı yapma becerisiyle donatılması.
  • İnce ayar ve RLHF: Temel modellerin belirli görevler veya veri kümeleri üzerinde iyileştirilmesi ve model davranışını istenen sonuçlarla (örn. doğruluk) uyumlu hale getirmek için İnsan Geri Bildiriminden Takviyeli Öğrenme (RLHF ) gibi tekniklerin kullanılması.
  • Daha İyi Yönlendirme: Düşünce Zinciri yönlendir mesi gibi teknikler, modelleri "adım adım düşünmeye" teşvik ederek potansiyel olarak hataları azaltır.
  • Çıktı Doğrulama: Oluşturulan ifadeleri bilinen gerçeklerle veya birden fazla kaynakla çapraz kontrol etmek için mekanizmalar uygulamak.
  • Çıkarım Parametrelerini Ayarlama: "Sıcaklık" gibi ayarların düşürülmesi, çıktıları daha odaklı ve daha az rastgele hale getirerek halüsinasyon riskini azaltabilir.

LLM'ler dile odaklanırken, Bilgisayarla Görme (CV) alanında uzmanlaşmış modeller, örneğin Ultralytics YOLOnesne tespiti için farklı şekilde çalışır ve tespit doğruluğunu sağlamak gibi farklı zorluklarla karşılaşır. Bununla birlikte, dil ve görmeyi birleştiren çok modlu modellere(CLIP gibi) yönelik eğilim, halüsinasyon gibi konuların anlaşılmasının alanlar arasında önemli hale geldiği anlamına gelir. Ultralytics HUB gibi platformlar, çeşitli yapay zeka modellerinin eğitimini ve dağıtımını destekleyerek farklı modaliteler arasında geliştirmeyi kolaylaştırır.

Tümünü okuyun