Büyük Dil Modellerinde (LLM'ler) halüsinasyonlara neyin neden olduğunu keşfedin ve yapay zeka tarafından oluşturulan içerikteki yanlışlıkları azaltmak için etkili stratejileri keşfedin.
Bu bağlamda Büyük Dil Modelleri (LLM'ler)Bir üretici model kendinden emin ve sözdizimsel olarak akıcı bir içerik ürettiğinde bir halüsinasyon meydana gelir, ancak gerçekte yanlış, saçma veya kaynak materyale sadık olmayan. Standart veritabanı erişim hatalarının aksine, halüsinasyonlar Üretken Yapay Zeka vardır genellikle kulağa mantıklı gelmekte ve kullanıcıların bağımsız doğrulama yapmadan bunları detect etmesini zorlaştırmaktadır. Bu fenomen öncelik veren bu modellerin temel tasarımından kaynaklanmaktadır. metin oluşturma dayalı doğruluk doğrulamasından ziyade istatistiksel olasılık. Halüsinasyonları anlamak, güvenli yapay zeka kullanımı için kritik önem taşıyor sistemlerinde, özellikle de sağlık, finans ve hukuk hizmetleri gibi yüksek riskli sektörlerde.
Halüsinasyonun birincil nedeni Transformatör mimarlık ve Temel modeller oluşturmak için kullanılan eğitim hedefleri. Bu sistemler bir sonraki belirteç kalıplara dayalı bir dizide büyük miktarda öğrenilen eğitim verileri. İçsel bir "gerçek" veya "kurgu" kavramına sahip değildirler; daha ziyade, "gerçek" veya "kurgu "yu model alırlar. kelimelerin birlikte görünme olasılığı.
Bu davranışa katkıda bulunan çeşitli faktörler vardır:
Halüsinasyonlar, ince yanlışlıklardan tamamen uydurmalara kadar çeşitli şekillerde ortaya çıkabilir:
ultralytics.detect_everything()) gördüğü standart adlandırma kurallarını temel alır.
Bu özel işlev hiç uygulanmamış olsa bile eğitim verileri.
Halüsinasyonun azaltılması Yapay Zeka Güvenliği Araştırma. Çeşitli teknikler şu anda modelleri gerçekliğe dayandırmak için kullanılmaktadır:
Çok modlu iş akışlarında halüsinasyonları azaltmanın etkili bir yolu, yüksek doğrulukta nesne algılama doğrulamak için model LLM bir görüntüyü tanımlamadan önce görüntünün fiziksel içeriğini belirler. Nesnelerin doğrulanmış bir listesini LLM'nin bağlamında, orada olmayan unsurları icat etmesini önlersiniz.
Aşağıdaki örnekte nasıl kullanılacağı gösterilmektedir Ultralytics YOLO11 oluşturmak için Nesnelerin temel gerçek listesi, daha sonra üretici bir model için olgusal bir kısıtlama olarak hizmet edebilir.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Halüsinasyonları diğer YZ hata türlerinden ayırt etmek önemlidir:
Üretken modellerin değerlendirilmesine ilişkin daha fazla okuma için NIST Yapay Zeka Risk Yönetimi Çerçevesi güvenilirlik ve güvenlik standartlarına kapsamlı bir bakış sağlar. Buna ek olarak, araştırmacılar aşağıdakileri geliştirmeye devam etmektedir doğruluk kontrol algoritmaları gerçek zamanlı olarak halüsinatif içeriği otomatik olarak detect etmek ve işaretlemek için.

