اكتشف كيف تقلل تقنية "سلسلة التحقق" (CoVe) من حالات "الهلوسة" في النماذج اللغوية الكبيرة (LLM). تعلم كيفية تحسين دقة المعلومات الواقعية باستخدام تقنية هندسة المطالبات هذه مع Ultralytics .
سلسلة التحقق (CoVe) هي تقنية هندسية متقدمة مصممة للحد من عدم الدقة والأخطاء الواقعية في مخرجات نماذج اللغة الكبيرة (LLMs) . مع ازدياد تعقيد أنظمة الذكاء الاصطناعي، يبقى ميلها إلى توليد معلومات خاطئة بثقة - وهي ظاهرة تُعرف باسم "وهم نماذج اللغة الكبيرة" - تحديًا كبيرًا. تعالج CoVe هذا التحدي بإجبار النموذج على التحقق من صحة إجاباته الأولية بشكل منهجي قبل تقديم الإجابة النهائية للمستخدم. تعمل آلية التصحيح الذاتي هذه على تحسين موثوقية تطبيقات الذكاء الاصطناعي التوليدي بشكل ملحوظ في مختلف القطاعات.
تقسم منهجية CoVe عملية توليد المعلومات إلى أربع خطوات متسلسلة ومتميزة. يحاكي هذا النهج المنظم عمليات التحقق البشري من الحقائق، ويخضع لبحوث مكثفة من قبل منظمات رائدة في مجال الذكاء الاصطناعي لتحسين سلامة الذكاء الاصطناعي وتوافقه.
على الرغم من أن تقنية التحقق من صحة البيانات (CoVe) تُقارن غالبًا بتقنية تسلسل الأفكار ، إلا أن لكل منهما غرضًا مختلفًا. تشجع تقنية تسلسل الأفكار النموذج على "إظهار عمله" من خلال تقسيم الاستدلال المنطقي المعقد إلى مكونات خطوة بخطوة لحل المشكلة. في المقابل، تستهدف تقنية التحقق من صحة البيانات على وجه التحديد دقة الحقائق من خلال تدقيق ومراجعة الادعاءات بعد إعداد المسودة. بالإضافة إلى ذلك، يمكن دمج تقنية التحقق من صحة البيانات مع مسارات توليد البيانات المعززة بالاسترجاع (RAG) ، حيث تستخلص خطوة التحقق بيانات الحقيقة الأساسية من قاعدة بيانات متجهة خارجية بدلًا من الاعتماد فقط على الأوزان الداخلية للنموذج.
يُعدّ CoVe مفيدًا للغاية في المجالات التي تتطلب دقة المعلومات. فمن خلال دمج حلقة التحقق الذاتي هذه، يستطيع المطورون الوثوق بأنظمة الذكاء الاصطناعي في المهام ذات الأهمية البالغة.
لتحسين خطوة "التنفيذ" في CoVe، يمكن للمطورين الاستعلام من نماذج التعلم الآلي الموثوقة للحصول على بيانات مرجعية. على سبيل المثال، باستخدام Ultralytics YOLO26 للكشف عن الأجسام ، يمكن لنموذج التعلم الآلي التحقق من صحة البيانات الفيزيائية المتعلقة بالصورة. ويمكن للفرق إدارة مجموعات البيانات هذه ونشر نماذج الرؤية هذه بكفاءة باستخدام منصة Ultralytics سهلة الاستخدام.
يوضّح مثال Python التالي كيفية استخدام الأداة ultralytics حزمة لاستخراج قائمة تم التحقق منها من الكائنات، والتي يمكن أن تكون بمثابة مصدر أساس واقعي لـ LLM الذي ينفذ خطوة سلسلة التحقق.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
من خلال دمج المخرجات الحتمية من أطر الرؤية عالية الأداء مثل PyTorch في خط أنابيب CoVe، يمكن للمطورين تقليل الأخطاء التوليدية بشكل كبير وبناء تطبيقات الذكاء الاصطناعي متعددة الوسائط قوية وجديرة بالثقة.