Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الهلوسة (في النماذج اللغوية الكبيرة)

استكشف أسباب ومخاطر الهلوسة في الذكاء الاصطناعي في نماذج اللغة الكبيرة (LLM). تعرف على كيفية التخفيف من الأخطاء الواقعية باستخدام RAG و RLHF والتأصيل مع Ultralytics .

في مجال الذكاء الاصطناعي (AI)، تشير الهلوسة إلى ظاهرة يقوم فيها نموذج اللغة الكبيرة (LLM) بإنشاء محتوى يبدو موثوقًا وصحيحًا من الناحية النحوية، ولكنه غير دقيق من الناحية الواقعية، أو غير منطقي، أو غير مطابق للمصدر المدخل. على عكس أخطاء البرامج القياسية التي قد تؤدي إلى تعطل أو خلل مرئي، يتصرف النموذج المهلوس كأنه مختلق مقنع، حيث يقدم معلومات خاطئة بنفس مصداقية الحقائق الصحيحة. وهذا يشكل تحديات كبيرة للمؤسسات التي تستخدم الذكاء الاصطناعي التوليدي في مجالات حساسة مثل الرعاية الصحية والحقوق والمالية، حيث تعد سلامة البيانات أمرًا بالغ الأهمية.

لماذا تحدث الهلوسة؟

لفهم سبب حدوث الهلوسة في النماذج، من المفيد النظر إلى كيفية بنائها. عادةً ما تستند نماذج اللغة الكبيرة (LLMs) إلى بنية Transformer، التي تعمل كمحرك تنبؤ متطور . بدلاً من الاستعلام عن قاعدة بيانات منظمة من الحقائق التي تم التحقق منها، يتنبأ النموذج بالرمز التالي في تسلسل بناءً على الاحتمالات الإحصائية المستمدة من بيانات التدريب الخاصة به.

هناك عدة عوامل تدفع إلى هذا السلوك:

  • التخمين الاحتمالي: يعطي النموذج الأولوية للطلاقة والتماسك على الحقيقة الواقعية. إذا كان تسلسل معين من الكلمات محتملًا إحصائيًا — حتى لو كان خاطئًا من الناحية الواقعية — فقد يقوم النموذج بإنشائه. غالبًا ما تتم مناقشة هذا المفهوم في الأبحاث المتعلقة بالببغاوات العشوائية، حيث تحاكي النماذج أنماط اللغة دون فهم المعنى.
  • مشكلات جودة البيانات: إذا كان النص الضخم المستخدم للتدريب يحتوي على تناقضات أو معلومات قديمة أو خيالية، فقد يعيد النموذج إنتاج هذه الأخطاء.
  • فقدان الذاكرة المصدرية: تقوم نماذج اللغة الكبيرة (LLMs) بضغط كميات هائلة من المعلومات إلى أوزان النموذج. في هذه العملية، غالبًا ما تفقد الارتباط بمصادر محددة، مما يؤدي إلى "التلفيق" حيث يتم دمج مفاهيم أو أحداث متميزة بشكل غير صحيح.

أمثلة واقعية للهلوسة

يمكن أن تظهر الهلوسة بطرق مختلفة، من التزيينات الإبداعية غير المؤذية إلى الأخطاء الواقعية الخطيرة:

  • التلفيق القانوني: هناك حالات موثقة استخدم فيها مهنيون قانونيون الذكاء الاصطناعي لصياغة مذكرات، ليكتشفوا أن النموذج قد اختلق قضايا قضائية غير موجودة واقتباسات لدعم حجة ما.
  • توليد الكود: قد يواجه المطورون الذين يستخدمون مساعدات الذكاء الاصطناعي "هلوسات الحزم"، حيث يقترح النموذج استيراد مكتبة برمجية أو استدعاء وظيفة غير موجودة بالفعل، لمجرد أن الاسم يتبع قواعد التسمية القياسية.
  • أخطاء في السيرة الذاتية: عند سؤالهم عن أشخاص أقل شهرة، قد ينسب العارضون بثقة إنجازات أو أماكن ميلاد أو مسارات مهنية غير صحيحة إليهم، مزجين بشكل فعال تفاصيل من عدة أشخاص.

استراتيجيات التخفيف

يعد تقليل تكرار الهلوسة أحد المحاور الرئيسية لـ سلامة الذكاء الاصطناعي. يستخدم المهندسون والباحثون عدة تقنيات لترسيخ النماذج في الواقع:

  • الاسترجاع المعزز بالتوليد (RAG): تربط هذه الطريقة LLM بقاعدة معارف خارجية موثوقة ، غالبًا ما يتم فهرستها في قاعدة بيانات متجهة. من خلال استرجاع المستندات ذات الصلة قبل توليد إجابة، يكون النموذج مقيدًا بالبيانات الفعلية.
  • تحفيز سلسلة الأفكار: تشجع تقنية هندسة التحفيز هذه النموذج على "إظهار عمله" عن طريق تقسيم الاستدلال المعقد إلى خطوات وسيطة، مما يقلل غالبًا من الأخطاء المنطقية.
  • التعلم المعزز من ردود فعل البشر (RLHF): خلال مرحلة الضبط الدقيق، يقوم المقيّمون البشريون بتصنيف استجابات النموذج. من خلال معاقبة الهلوسة ومكافأة الصدق، يتعلم النموذج كيفية التوافق بشكل أفضل مع توقعات البشر.

تأريض LLMs بالرؤية الحاسوبية

في أنظمة الذكاء الاصطناعي متعددة الوسائط ، يمكن أن يستند إنشاء النصوص إلى البيانات المرئية. إذا طُلب من LLM وصف مشهد ما، فقد يتخيل كائنات غير موجودة. من خلال دمج كاشف كائنات عالي الدقة مثل YOLO26، يمكن للمطورين تزويد LLM بقائمة واقعية بالكائنات الموجودة، مما يحد بشكل صارم من مخرجاته إلى الكشفات التي تم التحقق منها .

يوضح Python التالي Python كيفية استخدام ultralytics حزمة لاستخراج قائمة مؤكدة من الكائنات، والتي يمكن أن تكون بمثابة قيد واقعي لموجه نموذج اللغة.

from ultralytics import YOLO

# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

التفريق بين المفاهيم ذات الصلة

من المهم التمييز بين الهلوسة والأخطاء الشائعة الأخرى في الذكاء الاصطناعي:

  • مقابل التحيز في الذكاء الاصطناعي: يشير التحيز إلى التحيز المنهجي في النتائج (على سبيل المثال، تفضيل فئة سكانية على أخرى)، في حين أن الهلوسة هي فشل في دقة الحقائق. يمكن أن تكون الاستجابة غير متحيزة ولكنها هلوسية (على سبيل المثال، "القمر مصنوع من الجبن").
  • مقابل الإفراط في الملاءمة: يحدث الإفراط في الملاءمة عندما يحفظ النموذج بيانات التدريب بشكل دقيق للغاية ولا يمكنه التعميم على المدخلات الجديدة. غالبًا ما تحدث الهلوسة عندما يحاول النموذج التعميم بشكل مفرط في المجالات التي يفتقر فيها إلى البيانات.
  • مقابل الخطأ في التصنيف: في الكشف عن الأشياء، فإن تصنيف سيارة على أنها شاحنة هو خطأ في التصنيف (مشكلة دقة)، وليس هلوسة. الهلوسة تخص إنشاء محتوى زائف .

بالنسبة لأولئك الذين يسعون إلى إدارة مجموعات البيانات وتدريب النماذج بدرجة عالية من سلامة البيانات لمنع الأخطاء في المراحل اللاحقة، توفر Ultralytics أدوات شاملة للتعليق وإدارة مجموعات البيانات. علاوة على ذلك، توفر إرشادات إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) معايير لتقييم هذه المخاطر والتخفيف من حدتها في بيئات الإنتاج.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن