Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الهلوسة (في النماذج اللغوية الكبيرة)

اكتشف أسباب الهلوسة في نماذج اللغة الكبيرة (LLMs) واستكشف الاستراتيجيات الفعالة للتخفيف من عدم الدقة في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

في سياق نماذج اللغة الكبيرة (LLMs)، تحدث الهلوسة عندما ينتج النموذج التوليدي محتوى واثقًا وطليقًا من الناحية النحوية ولكنه غير صحيح من الناحية الواقعية أو غير منطقي أو غير مخلص للمادة المصدر. على عكس أخطاء استرجاع قاعدة البيانات القياسية, الهلوسة في الذكاء الاصطناعي التوليدي غالبًا ما تكون غالبًا ما تبدو معقولة، مما يجعل من الصعب على المستخدمين detect دون تحقق مستقل. هذه الظاهرة تنبع من التصميم الأساسي لهذه النماذج، والتي تعطي الأولوية توليد النص بناءً على الاحتمالات الإحصائية بدلاً من التحقق من صحة الحقيقة. إن فهم الهلوسات أمر بالغ الأهمية لنشر الذكاء الاصطناعي الآمن الآمن، لا سيما في الصناعات عالية المخاطر مثل الرعاية الصحية والتمويل والخدمات القانونية.

لماذا يهلوس أصحاب الماجستير في القانون

يكمن السبب الرئيسي للهلوسة في أن السبب الرئيسي للهلوسة يكمن في المحول البنية و أهداف التدريب المستخدمة لبناء نماذج الأساس. يتم تدريب هذه الأنظمة على التنبؤ بـ الرمز التالي في التسلسل بناءً على الأنماط المستفادة من كميات هائلة من بيانات التدريب. فهي لا تمتلك مفهومًا متأصلًا عن "الحقيقة" أو "الخيال"؛ بل إنها تقوم بنمذجة احتمالية ظهور الكلمات معًا.

تساهم عدة عوامل في هذا السلوك:

  • قيود البيانات: إذا كانت مجموعة التدريب تحتوي على معلومات متضاربة أو قديمة أو غير صحيحة, فقد يعيد النموذج إنتاج هذه الأخطاء. غالبًا ما تتم مناقشة هذا الأمر في الأبحاث المتعلقة الببغاوات العشوائيةحيث تحاكي النماذج الأشكال اللغوية دون فهم المعنى.
  • أدوات الضغط: يضغط LLMs معرفة الإنترنت في مجموعة ثابتة من المعلمات. أثناء هذا الضغط، يمكن أن تضيع الفوارق الدقيقة، مما يؤدي إلى الخلط بين المفاهيم المختلفة.
  • غموض الاستدلال: عندما يواجه نموذج ما موجهًا خارج توزيعه المعرفي، قد يتخلف عن الاستجابة إلى توليد الاستجابة الأكثر احتمالاً من الناحية الإحصائية بدلاً من الاعتراف بالجهل، وهو سلوك غالباً ما يسمى "الارتباك".

أمثلة واقعية للهلوسة

يمكن أن تظهر الهلوسة بأشكال مختلفة، بدءًا من عدم الدقة الدقيقة إلى التلفيقات الكاملة:

  • تلفيق القضايا القانونية: في حادثة حظيت بتغطية إعلامية واسعة، استخدم أحد المحترفين القانونيين ماجستير في القانون لإجراء بحث في قضية. أنتج النموذج موجزًا قانونيًا يستشهد بعدة قضايا غير موجودة في المحكمة مع استشهادات وآراء قضائية مخترعة مما أدى إلى فرض عقوبات.
  • اختراع مكتبة ترميز مكتبة الترميز: يواجه المطورون الذين يستخدمون مساعدي الترميز بالذكاء الاصطناعي أحيانًا توصيات لمكتبات البرمجيات أو أساليب واجهة برمجة التطبيقات التي لا وجود لها في الواقع. يهلوس النموذج باسم وظيفة معقولة (على سبيل المثال, ultralytics.detect_everything()) استنادًا إلى اصطلاحات التسمية القياسية التي رأتها في بيانات التدريب، على الرغم من أن هذه الدالة المحددة لم تُنفذ أبدًا.

استراتيجيات التخفيف

الحد من الهلوسة هو محور التركيز الرئيسي لـ سلامة الذكاء الاصطناعي البحثية. العديد من التقنيات تُستخدم حاليًا لتأسيس النماذج على أرض الواقع:

  • التوليد المعزز للاسترجاع (RAG): تربط هذه الطريقة LLM بقاعدة معرفية خارجية موثوق بها خارجية موثوق بها، مثل قاعدة بيانات متجهة. بدلاً من الاعتماد فقط على الذاكرة الداخلية، يسترجع النموذج المستندات ذات الصلة قبل توليد إجابة. يمكنك قراءة المزيد عن كيفية تحسين دقة RAG في تطبيقات المؤسسات.
  • الهندسة الفورية: تقنيات مثل موجهات تسلسل الأفكار تشجيع النموذج على شرح منطقه خطوة بخطوة، وهو ما ثبت أنه يقلل من الأخطاء المنطقية ويحسّن الاتساق الواقعي.
  • التعلم المعزز من التغذية الراجعة البشرية (RLHF): يستخدم المطورون التعلّم المعزز من الملاحظات البشرية (RLHF) لمعاقبة النموذج على الهلوسات أثناء مرحلة الضبط الدقيق، ومواءمة مخرجاته مع التفضيلات البشرية للصدق.
  • التأريض متعدد الوسائط: في مهام الرؤية واللغة، يمكن الحد من الهلوسة عن طريق التحقق من النص الناتج مقابل البيانات المهيكلة من الرؤية الحاسوبية (CV) النماذج.

تأريض LLMs بالرؤية الحاسوبية

تتمثل إحدى الطرق الفعالة للتخفيف من الهلوسة في تدفقات العمل متعدد الوسائط في استخدام عالية الدقة عالية الدقة للتحقق من من المحتويات المادية للصورة قبل أن يصفها نموذج الكشف عن الأجسام عالي الدقة. من خلال تغذية قائمة من الكائنات التي تم التحقق منها في فإنك تمنعه من اختراع عناصر غير موجودة.

يوضح المثال التالي كيفية استخدام Ultralytics YOLO11 لتوليد قائمة حقيقة أرضية من الكائنات، والتي يمكن أن تكون بمثابة قيد واقعي لنموذج توليدي.

from ultralytics import YOLO

# Load the official YOLO11 model
model = YOLO("yolo11n.pt")

# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']

الهلوسة مقابل المصطلحات الأخرى

من المهم التمييز بين الهلوسة والأنواع الأخرى من أخطاء الذكاء الاصطناعي:

  • مقابل التحيز التحيز في الذكاء الاصطناعي يشير إلى التحيز المنهجي في المخرجات (على سبيل المثال، التنميط)، بينما يشير التحيز في الذكاء الاصطناعي إلى عدم صحة الوقائع. يمكن أن يكون البيان غير متحيز لكنه مهلوس، أو واقعي لكنه متحيز.
  • مقابل أخطاء الدقة: في مهام التصنيف، يعتبر التنبؤ الخاطئ (مثل تصنيف كلب على أنه قطة) خطأ في الدقة وليس هلوسة. الهلوسة خاصة ب التوليدية عملية إنشاء محتوى محتوى جديد.
  • مقابل الإفراط في الملاءمة: في حين أن الإفراط في التركيب ينطوي على حفظ بيانات التدريب عن كثب، فإن الهلوسة تحدث غالبًا عندما يحاول النموذج التعميم خارج نطاق بيانات التدريب الخاصة به ويفشل.

لمزيد من القراءة حول تقييم النماذج التوليدية، استكشاف إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي نظرة شاملة على معايير الموثوقية والسلامة. بالإضافة إلى ذلك، يواصل الباحثون تطوير خوارزميات التحقق من الحقائق detect المحتوى المهلوس والإبلاغ عنه تلقائيًا في الوقت الفعلي.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن