استكشف أسباب ومخاطر الهلوسة في الذكاء الاصطناعي في نماذج اللغة الكبيرة (LLM). تعرف على كيفية التخفيف من الأخطاء الواقعية باستخدام RAG و RLHF والتأصيل مع Ultralytics .
في مجال الذكاء الاصطناعي (AI)، تشير الهلوسة إلى ظاهرة يقوم فيها نموذج اللغة الكبيرة (LLM) بإنشاء محتوى يبدو موثوقًا وصحيحًا من الناحية النحوية، ولكنه غير دقيق من الناحية الواقعية، أو غير منطقي، أو غير مطابق للمصدر المدخل. على عكس أخطاء البرامج القياسية التي قد تؤدي إلى تعطل أو خلل مرئي، يتصرف النموذج المهلوس كأنه مختلق مقنع، حيث يقدم معلومات خاطئة بنفس مصداقية الحقائق الصحيحة. وهذا يشكل تحديات كبيرة للمؤسسات التي تستخدم الذكاء الاصطناعي التوليدي في مجالات حساسة مثل الرعاية الصحية والحقوق والمالية، حيث تعد سلامة البيانات أمرًا بالغ الأهمية.
لفهم سبب حدوث الهلوسة في النماذج، من المفيد النظر إلى كيفية بنائها. عادةً ما تستند نماذج اللغة الكبيرة (LLMs) إلى بنية Transformer، التي تعمل كمحرك تنبؤ متطور . بدلاً من الاستعلام عن قاعدة بيانات منظمة من الحقائق التي تم التحقق منها، يتنبأ النموذج بالرمز التالي في تسلسل بناءً على الاحتمالات الإحصائية المستمدة من بيانات التدريب الخاصة به.
هناك عدة عوامل تدفع إلى هذا السلوك:
يمكن أن تظهر الهلوسة بطرق مختلفة، من التزيينات الإبداعية غير المؤذية إلى الأخطاء الواقعية الخطيرة:
يعد تقليل تكرار الهلوسة أحد المحاور الرئيسية لـ سلامة الذكاء الاصطناعي. يستخدم المهندسون والباحثون عدة تقنيات لترسيخ النماذج في الواقع:
في أنظمة الذكاء الاصطناعي متعددة الوسائط ، يمكن أن يستند إنشاء النصوص إلى البيانات المرئية. إذا طُلب من LLM وصف مشهد ما، فقد يتخيل كائنات غير موجودة. من خلال دمج كاشف كائنات عالي الدقة مثل YOLO26، يمكن للمطورين تزويد LLM بقائمة واقعية بالكائنات الموجودة، مما يحد بشكل صارم من مخرجاته إلى الكشفات التي تم التحقق منها .
يوضح Python التالي Python كيفية استخدام ultralytics حزمة لاستخراج قائمة مؤكدة من
الكائنات، والتي يمكن أن تكون بمثابة قيد واقعي لموجه نموذج اللغة.
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
من المهم التمييز بين الهلوسة والأخطاء الشائعة الأخرى في الذكاء الاصطناعي:
بالنسبة لأولئك الذين يسعون إلى إدارة مجموعات البيانات وتدريب النماذج بدرجة عالية من سلامة البيانات لمنع الأخطاء في المراحل اللاحقة، توفر Ultralytics أدوات شاملة للتعليق وإدارة مجموعات البيانات. علاوة على ذلك، توفر إرشادات إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) معايير لتقييم هذه المخاطر والتخفيف من حدتها في بيئات الإنتاج.