مسرد المصطلحات

الهلوسة (في LLMs)

اكتشف أسباب الهلوسة في النماذج اللغوية الكبيرة (LLMs) واستكشف الاستراتيجيات الفعالة للتخفيف من عدم الدقة في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يشير مصطلح الهلوسة إلى ظاهرة يقوم فيها نموذج اللغة الكبيرة (LLM ) بتوليد نص غير منطقي أو غير صحيح من الناحية الواقعية أو غير مرتبط بسياق المدخلات المقدمة، على الرغم من أنه يبدو واثقًا ومتماسكًا. لا تستند هذه المخرجات إلى بيانات التدريب الخاصة بالنموذج أو الواقع الخارجي، بل هي بدلاً من ذلك نتاج العمليات الداخلية للنموذج التي تحاول التنبؤ بالكلمة أو الرمز التالي الأكثر احتمالاً. يعد فهم الهلوسة أمرًا بالغ الأهمية لتطوير ونشر أنظمة الذكاء الاصطناعي بشكل مسؤول، لا سيما تلك المستخدمة في استرجاع المعلومات أو إنشاء المحتوى أو اتخاذ القرارات داخل منصات مثل روبوتات الدردشة أو المساعدين الافتراضيين.

سبب حدوث الهلوسة

تُعدّ نماذج LLMs، التي غالبًا ما تكون مبنية على بنيات مثل المحول (التي تم تقديمها في ورقة"الانتباه هو كل ما تحتاجه")، نماذج احتمالية في الأساس. فهي تتعلم الأنماط والقواعد النحوية والارتباطات الواقعية من كميات هائلة من البيانات النصية أثناء التدريب باستخدام أطر مثل PyTorch أو TensorFlow. ومع ذلك، فإنها تفتقر إلى الفهم الحقيقي أو الوعي أو القدرة على التحقق من المعلومات بشكل جوهري. يمكن أن تنشأ الهلوسة من عدة عوامل:

  • قيود بيانات التدريب: قد يكون النموذج قد تم تدريبه على بيانات صاخبة أو متحيزة أو غير صحيحة من الناحية الواقعية، أو قد يفتقر إلى معلومات كافية عن موضوع معين. يحاول "ملء الفجوات" بناءً على الأنماط المكتسبة، مما يؤدي إلى تلفيقات.
  • بنية النموذج والتدريب: يمكن أن تؤدي الطريقة التي تعالج بها نماذج مثل GPT-4 المعلومات وتوليد التسلسلات كلمة بكلمة إلى أن تقودهم إلى مسارات معقولة إحصائيًا ولكنها غير صحيحة واقعيًا. إن تعقيد نماذج التعلم العميق يجعلها عرضة لسلوك غير متوقع.
  • استراتيجية فك التشفير: تؤثر المعلمات المستخدمة أثناء توليد النص (الاستدلال)، مثل "درجة الحرارة"، على العشوائية. تشجع درجات الحرارة المرتفعة على الإبداع ولكنها تزيد من خطر الهلوسة.
  • الافتقار إلى التأصيل: من دون آليات لربط النص الذي تم إنشاؤه بالمعرفة الواقعية أو مستندات مصدرية محددة، يمكن أن ينجرف النموذج إلى بيانات غير مدعومة. تهدف تقنيات مثل التأصيل إلى معالجة هذا الأمر.
  • غموض الموجه: يمكن أن تؤدي المطالبات الغامضة أو سيئة الصياغة إلى قيام النموذج بوضع افتراضات أو توليد مخرجات أقل تقييدًا، مما يزيد من احتمال عدم الدقة. هندسة الموجهات الفعالة هي المفتاح.

أمثلة واقعية وأثرها في العالم الحقيقي

يمكن أن تظهر الهلوسة بطرق مختلفة، مما يشكل مخاطر كبيرة مثل نشر المعلومات المضللة أو توليد محتوى ضار أو تآكل ثقة المستخدم في أنظمة الذكاء الاصطناعي.

  1. تلفيق الحقائق في روبوتات الدردشة: قد يسأل المستخدم روبوت الدردشة الآلي عن اكتشاف علمي معين، ويمكن أن يخترع روبوت الدردشة الآلي التفاصيل، أو ينسب الاكتشاف إلى الشخص الخطأ، أو يصف حدثًا غير موجود بثقة عالية.
  2. الاستشهادات القانونية المختلقة: في حادثة تم الإبلاغ عنها على نطاق واسع، استخدم المحامون أداة ذكاء اصطناعي للبحث القانوني التي أنتجت استشهادات قضايا ملفقة بالكامل تم تقديمها في وثائق المحكمة، مما أدى إلى فرض عقوبات.

ويمتد التأثير إلى ما هو أبعد من الأخطاء البسيطة؛ فهو يتحدى موثوقية أنظمة الذكاء الاصطناعي، خاصةً مع دمجها في محركات البحث(مثل نظرة عامة على الذكاء الاصطناعي من Google)، والمساعدين الافتراضيين، وأدوات إنشاء المحتوى. وتُعد معالجة هذا الأمر تحدياً أساسياً في أخلاقيات الذكاء الاصطناعي وسلامته، مما يتطلب استراتيجيات قوية للتحقق والمراقبة.

التمييز بين الهلوسة والأخطاء الأخرى

من المهم التفريق بين الهلوسة والأنواع الأخرى من أخطاء الذكاء الاصطناعي:

  • التحيز في الذكاء الاصطناعي: يشير هذا إلى الأخطاء المنهجية أو المخرجات المنحرفة التي تعكس التحيزات الموجودة في بيانات التدريب (على سبيل المثال، القوالب النمطية الجنسانية أو العرقية). وعادةً ما تكون الهلوسات عبارة عن تلفيقات عشوائية أكثر من كونها مخرجات متناسقة ومتحيزة. إن فهم تحيز مجموعة البيانات أمر بالغ الأهمية هنا.
  • الإفراط في التعميم: يحدث هذا عندما يتعلم النموذج بيانات التدريب بشكل جيد للغاية، بما في ذلك الضوضاء، ويفشل في التعميم على البيانات الجديدة غير المرئية(بيانات التحقق من الصحة). على الرغم من أن الإفراط في التعميم يؤدي إلى ضعف الأداء، إلا أنه يختلف عن توليد معلومات جديدة خاطئة تمامًا.
  • معلومات قديمة: قد يقدم LLM معلومات غير صحيحة ببساطة لأن بيانات التدريب الخاصة به ليست حديثة. هذا خطأ واقعي يستند إلى قطع المعرفة، وليس هلوسة حيث يتم اختراع المعلومات.

استراتيجيات التخفيف من المخاطر

يعمل الباحثون والمطورون بنشاط على الحد من هلوسة LLM:

  • تحسين بيانات التدريب: تنسيق مجموعات بيانات عالية الجودة ومتنوعة ومدققة في الحقائق. يساعد استخدام مجموعات بيانات معيارية عالية الجودة.
  • التوليد المعزز بالاسترجاع (RAG): تزويد آليات التوليد المعزز للاسترجاع والاستشهاد بالمعلومات من قواعد معارف خارجية موثوقة(مثل قواعد بيانات المتجهات) قبل توليد استجابة.
  • الضبط الدقيق وRLHF: تنقيح النماذج الأساسية على مهام أو مجموعات بيانات محددة واستخدام تقنيات مثل التعلم المعزز من الملاحظات البشرية (RLHF ) لمواءمة سلوك النموذج مع النتائج المرجوة (مثل الصدق).
  • موجهات أفضل: تشجع تقنيات مثل المطالبة بتسلسل الأفكار النماذج على "التفكير خطوة بخطوة"، مما قد يقلل من الأخطاء.
  • التحقق من المخرجات: تنفيذ آليات لمضاهاة البيانات التي تم إنشاؤها مع حقائق معروفة أو مصادر متعددة.
  • ضبط معلمات الاستدلال: يمكن أن يؤدي خفض الإعدادات مثل "درجة الحرارة" إلى جعل المخرجات أكثر تركيزًا وأقل عشوائية، مما يقلل من مخاطر الهلوسة.

بينما تركز نماذج LLMs على اللغة، فإن النماذج المتخصصة في الرؤية الحاسوبية، مثل Ultralytics YOLOللكشف عن الأجسام، تعمل بشكل مختلف وتواجه تحديات مختلفة مثل ضمان دقة الكشف. ومع ذلك، فإن الاتجاه نحو النماذج متعددة الوسائط التي تجمع بين اللغة والرؤية(مثل CLIP) يعني أن فهم قضايا مثل الهلوسة يصبح ذا صلة عبر المجالات. وتدعم منصات مثل Ultralytics HUB تدريب ونشر نماذج الذكاء الاصطناعي المختلفة، مما يسهل عملية التطوير عبر طرائق مختلفة.

قراءة الكل