Chain of Verification (CoVe) teknolojisinin büyük dil modellerindeki (LLM) hatalı tahminleri nasıl azalttığını keşfedin. Ultralytics ile bu komut satırı mühendisliği tekniğini kullanarak gerçeklere dayalı doğruluğu nasıl artırabileceğinizi öğrenin.
Doğrulama Zinciri (CoVe), Büyük Dil Modellerinin (LLM) çıktılarındaki yanlışlıkları ve gerçek hataları azaltmak için tasarlanmış gelişmiş bir komut istemi mühendisliği tekniğidir. Yapay zeka sistemleri daha karmaşık hale geldikçe, yanlış bilgi üretme eğilimleri ( LLM halüsinasyonu olarak bilinen bir olgu) önemli bir sorun olmaya devam etmektedir. CoVe, modeli kullanıcıya nihai bir yanıt sunmadan önce kendi ilk yanıtlarını sistematik olarak doğrulamaya zorlayarak bu sorunu ele alır. Bu kendi kendini düzeltme mekanizması, çeşitli sektörlerdeki üretken yapay zeka uygulamalarının güvenilirliğini önemli ölçüde artırır.
CoVe metodolojisi, üretim sürecini dört ayrı, ardışık adıma ayırır. Bu yapılandırılmış yaklaşım, insan doğrulama iş akışlarını yansıtır ve yapay zeka güvenliğini ve uyumunu iyileştirmek için önde gelen yapay zeka kuruluşları tarafından aktif olarak araştırılmaktadır.
CoVe sıklıkla Düşünce Zinciri Tetikleme ile karşılaştırılsa da, ikisinin amacı farklıdır. Düşünce Zinciri, karmaşık mantıksal akıl yürütmeyi adım adım bileşenlere ayırarak bir modeli "çalışmasını göstermeye" teşvik eder. Buna karşılık, Doğrulama Zinciri, taslak oluşturulduktan sonra iddiaları denetleyerek ve revize ederek özellikle olgusal doğruluğu hedefler. Ek olarak, CoVe, doğrulama adımının yalnızca modelin dahili ağırlıklarına güvenmek yerine harici bir vektör veritabanından gerçek verileri çektiği Geri Alma Destekli Üretim (RAG) işlem hatlarıyla eşleştirilebilir.
CoVe, olgusal doğruluğun kritik olduğu alanlarda son derece faydalıdır. Bu kendi kendini kontrol eden döngüyü entegre ederek, geliştiriciler yapay zeka sistemlerine daha yüksek riskli görevlerde güvenebilirler.
CoVe'nin "Yürütme" adımını geliştirmek için geliştiriciler, gerçek veriler için yetkili makine öğrenimi modellerini sorgulayabilirler. Örneğin, nesne tespiti için Ultralytics YOLO26 kullanılarak, bir LLM bir görüntü hakkındaki fiziksel iddiaları doğrulayabilir. Ekipler, sezgisel Ultralytics Platformunu kullanarak bu veri kümelerini verimli bir şekilde yönetebilir ve bu görüntü işleme modellerini dağıtabilirler.
Aşağıdaki Python örneği, aşağıdakilerin nasıl kullanılacağını göstermektedir ultralytics Doğrulanmış nesnelerin listesini çıkarmak için kullanılan paket; bu liste, Doğrulama Zinciri adımını yürüten bir LLM için olgusal bir temel kaynağı olarak işlev görebilir.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
PyTorch gibi yüksek performanslı görüntü işleme çerçevelerinden gelen deterministik çıktıları CoVe işlem hattına entegre ederek, geliştiriciler üretken hataları önemli ölçüde azaltabilir ve sağlam, güvenilir çok modlu yapay zeka uygulamaları oluşturabilirler.