اكتشف أسباب الهلوسة في نماذج اللغة الكبيرة (LLMs) واستكشف الاستراتيجيات الفعالة للتخفيف من عدم الدقة في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
في سياق نماذج اللغة الكبيرة (LLMs)، تحدث الهلوسة عندما ينتج النموذج التوليدي محتوى واثقًا وطليقًا من الناحية النحوية ولكنه غير صحيح من الناحية الواقعية أو غير منطقي أو غير مخلص للمادة المصدر. على عكس أخطاء استرجاع قاعدة البيانات القياسية, الهلوسة في الذكاء الاصطناعي التوليدي غالبًا ما تكون غالبًا ما تبدو معقولة، مما يجعل من الصعب على المستخدمين detect دون تحقق مستقل. هذه الظاهرة تنبع من التصميم الأساسي لهذه النماذج، والتي تعطي الأولوية توليد النص بناءً على الاحتمالات الإحصائية بدلاً من التحقق من صحة الحقيقة. إن فهم الهلوسات أمر بالغ الأهمية لنشر الذكاء الاصطناعي الآمن الآمن، لا سيما في الصناعات عالية المخاطر مثل الرعاية الصحية والتمويل والخدمات القانونية.
يكمن السبب الرئيسي للهلوسة في أن السبب الرئيسي للهلوسة يكمن في المحول البنية و أهداف التدريب المستخدمة لبناء نماذج الأساس. يتم تدريب هذه الأنظمة على التنبؤ بـ الرمز التالي في التسلسل بناءً على الأنماط المستفادة من كميات هائلة من بيانات التدريب. فهي لا تمتلك مفهومًا متأصلًا عن "الحقيقة" أو "الخيال"؛ بل إنها تقوم بنمذجة احتمالية ظهور الكلمات معًا.
تساهم عدة عوامل في هذا السلوك:
يمكن أن تظهر الهلوسة بأشكال مختلفة، بدءًا من عدم الدقة الدقيقة إلى التلفيقات الكاملة:
ultralytics.detect_everything()) استنادًا إلى اصطلاحات التسمية القياسية التي رأتها في
بيانات التدريب، على الرغم من أن هذه الدالة المحددة لم تُنفذ أبدًا.
الحد من الهلوسة هو محور التركيز الرئيسي لـ سلامة الذكاء الاصطناعي البحثية. العديد من التقنيات تُستخدم حاليًا لتأسيس النماذج على أرض الواقع:
تتمثل إحدى الطرق الفعالة للتخفيف من الهلوسة في تدفقات العمل متعدد الوسائط في استخدام عالية الدقة عالية الدقة للتحقق من من المحتويات المادية للصورة قبل أن يصفها نموذج الكشف عن الأجسام عالي الدقة. من خلال تغذية قائمة من الكائنات التي تم التحقق منها في فإنك تمنعه من اختراع عناصر غير موجودة.
يوضح المثال التالي كيفية استخدام Ultralytics YOLO11 لتوليد قائمة حقيقة أرضية من الكائنات، والتي يمكن أن تكون بمثابة قيد واقعي لنموذج توليدي.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
من المهم التمييز بين الهلوسة والأنواع الأخرى من أخطاء الذكاء الاصطناعي:
لمزيد من القراءة حول تقييم النماذج التوليدية، استكشاف إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي نظرة شاملة على معايير الموثوقية والسلامة. بالإضافة إلى ذلك، يواصل الباحثون تطوير خوارزميات التحقق من الحقائق detect المحتوى المهلوس والإبلاغ عنه تلقائيًا في الوقت الفعلي.