Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Halüsinasyon (LLM'lerde)

Büyük Dil Modellerinde (LLM'ler) halüsinasyonlara neyin neden olduğunu keşfedin ve yapay zeka tarafından oluşturulan içerikteki yanlışlıkları azaltmak için etkili stratejileri keşfedin.

Büyük Dil Modelleri (LLM'ler) bağlamında, halüsinasyon, modelin kendinden emin ve makul görünen, ancak olgusal olarak yanlış, anlamsız veya sağlanan kaynak verilerine dayanmayan metinler üretmesi olgusunu ifade eder. Gelişmiş metin oluşturma için tasarlanan bu modeller, bazen gerçekmiş gibi sunarak gerçekleri, kaynakları veya ayrıntıları icat edebilir. Bunun nedeni, bir LLM'nin birincil amacının, oluşturduğu bilgilerin doğruluğunu doğrulamak değil, tutarlı cümleler oluşturmak için bir dizideki bir sonraki kelimeyi tahmin etmektir. Halüsinasyonları anlamak ve azaltmak, Üretken Yapay Zeka'yı daha güvenilir hale getirmenin temel bir zorluğudur.

Büyük Dil Modelleri (LLM) Neden Halüsinasyon Görür?

Halüsinasyonlar kasıtlı aldatmalar değildir, ancak LLM'lerin nasıl oluşturulduğunun ve eğitildiğinin yan ürünleridir. Başlıca nedenleri şunlardır:

  • Eğitim Verisi Kusurları: GPT-3 ve GPT-4 gibi modeller, kaçınılmaz olarak hatalar, güncel olmayan bilgiler ve algoritmik önyargı içeren internetten elde edilen muazzam miktarda metinden öğrenir. Model, gerçeği tam olarak anlamadan eğitim verilerinden bu kalıpları öğrenir.
  • Mimari Tasarım: Altta yatan Transformer mimarisi, olgusal hatırlama veya mantıksal akıl yürütme için değil, örüntü eşleştirme ve dil modelleme için optimize edilmiştir. Bu, bazı araştırmacıların "stokastik papağan" olarak adlandırdığı, anlamını anlamadan dili taklit edebilen bir varlığa yol açabilir.
  • Çıkarım Zamanı Belirsizliği: Oluşturma sırasında, model bir sonraki en iyi token hakkında emin değilse, olası ancak uydurma bilgilerle "boşlukları doldurabilir". Sıcaklık gibi çıkarım parametrelerini ayarlamak bazen bunu azaltabilir, ancak bu temel bir zorluk olmaya devam etmektedir. Teknik bir genel bakış için, arXiv'den LLM halüsinasyonları üzerine bu ankete bakın.

Halüsinasyonun Gerçek Dünya Örnekleri

  • Yasal Araştırma: Dava araştırması için bir yapay zeka asistanı kullanan bir avukat, ondan yasal emsaller bulmasını istedi. Sohbet robotu, vaka adları ve yasal analizler de dahil olmak üzere tamamen uydurulmuş, akla yatkın ancak var olmayan çeşitli mahkeme davaları sundu. Bu gerçek olay, yüksek riskli alanlarda LLM'lerin sağlam bir olgu kontrolü olmadan konuşlandırılmasının ciddi risklerini vurguladı.
  • Ürün Önerileri: Bir kullanıcı, bir sohbet robotundan "dahili güneş paneli olan en iyi yürüyüş sırt çantasını" ister. Büyük dil modeli (LLM), belirli bir modelin özelliklerini ayrıntılı olarak açıklayarak, söz konusu ürün veya özellik kombinasyonu mevcut olmasa bile güvenle önerebilir. Model, olası ancak hayali bir ürün oluşturmak için eğitim verilerindeki kavramları birleştirir.

Halüsinasyonlar Nasıl Azaltılır

Araştırmacılar ve geliştiriciler, çeşitli azaltma stratejileri üzerinde aktif olarak çalışıyorlar:

Halüsinasyon ve Diğer Yapay Zeka Hataları

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın
Bağlantı panoya kopyalandı