يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الذكاء الاصطناعي الدستوري

اكتشف كيف يضمن الذكاء الاصطناعي الدستوري مخرجات ذكاء اصطناعي أخلاقية وآمنة وغير متحيزة من خلال مواءمة النماذج مع المبادئ والقيم الإنسانية المحددة مسبقًا.

الذكاء الاصطناعي الدستوري (CAI) هو طريقة طورتها Anthropic لتدريب نماذج الذكاء الاصطناعي، وخاصة نماذج اللغة الكبيرة (LLMs)، لتتوافق مع مجموعة محددة من القواعد أو المبادئ، والمعروفة باسم "الدستور". الهدف الأساسي من CAI هو جعل أنظمة الذكاء الاصطناعي مفيدة وغير ضارة وأكثر قابلية للتحكم دون الحاجة إلى ملاحظات بشرية مكثفة. بدلاً من قيام البشر بتصنيف المخرجات الضارة باستمرار، يتعلم الذكاء الاصطناعي انتقاد وتنقيح استجاباته الخاصة بناءً على المبادئ التوجيهية في دستوره. يساعد هذا النهج في معالجة التحديات الرئيسية في أخلاقيات الذكاء الاصطناعي، مثل منع توليد محتوى سام وتقليل التحيز الخوارزمي.

كيف يعمل الذكاء الاصطناعي الدستوري؟

تتضمن عملية تدريب CAI عادةً مرحلتين رئيسيتين:

  1. مرحلة التعلم الخاضع للإشراف: في البداية، يتم حث نموذج أساسي على إنشاء استجابات. بعد ذلك، يُطلب من النموذج نفسه انتقاد استجاباته بناءً على الدستور وإعادة كتابتها لتحسين توافقها مع مبادئه. يؤدي هذا إلى إنشاء مجموعة بيانات جديدة من الأمثلة المحسنة والمتوافقة مع الدستور. يتم توجيه آلية النقد الذاتي هذه بدستور، والذي يمكن أن يكون قائمة بسيطة من القواعد أو يستمد من مصادر معقدة مثل إعلان الأمم المتحدة لحقوق الإنسان.
  2. مرحلة التعلم المعزز: ثم يتم ضبط النموذج باستخدام التعلم المعزز (RL). في هذه المرحلة، يقوم الذكاء الاصطناعي بإنشاء أزواج من الاستجابات، ويحدد نموذج التفضيل (المدرب على البيانات المنتقدة ذاتيًا من المرحلة الأولى) النموذج الذي يلتزم بشكل أفضل بالدستور. تعلم هذه العملية الذكاء الاصطناعي أن يفضل بشكل جوهري المخرجات المتوافقة مع مبادئه الأساسية.

مثال رئيسي واقعي للذكاء الاصطناعي الدستوري (CAI) هو تنفيذه في مساعد الذكاء الاصطناعي الخاص بـ Anthropic، Claude. يوجهه دستوره لتجنب إنشاء تعليمات ضارة، والامتناع عن الانخراط في أنشطة غير قانونية، والتواصل بطريقة غير سامة، مع الاستمرار في أن يكون مفيدًا. تطبيق آخر هو في الإشراف الآلي على المحتوى، حيث يمكن استخدام نموذج مدفوع بالذكاء الاصطناعي الدستوري (CAI) لتحديد الإبلاغ عن خطاب الكراهية أو المعلومات المضللة عبر الإنترنت وفقًا لمجموعة محددة مسبقًا من الإرشادات الأخلاقية.

الذكاء الاصطناعي الدستوري مقابل المفاهيم ذات الصلة

من المهم التمييز بين الذكاء الاصطناعي السياقي (CAI) والمصطلحات المماثلة:

  • التعلم بالتعزيز من خلال التغذية الراجعة البشرية (RLHF): يعتمد التعلم بالتعزيز من خلال التغذية الراجعة البشرية (RLHF) على البشر لتقديم التغذية الراجعة وتقييم الاستجابات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، وهو أمر يستغرق وقتًا طويلاً ويصعب توسيعه. يستبدل CAI حلقة التغذية الراجعة البشرية بحلقة تعتمد على الذكاء الاصطناعي، حيث يوجه دستور النموذج التغذية الراجعة. وهذا يجعل عملية المحاذاة أكثر قابلية للتطوير والاتساق.
  • أخلاقيات الذكاء الاصطناعي: هذا مجال واسع يهتم بالمبادئ الأخلاقية والمشاكل التقنية لإنشاء ذكاء اصطناعي مسؤول. يمكن اعتبار الذكاء الاصطناعي الدستوري إطارًا عمليًا لتنفيذ أخلاقيات الذكاء الاصطناعي من خلال تضمين قواعد أخلاقية صريحة مباشرة في عملية تدريب النموذج.

التطبيقات والإمكانات المستقبلية

حاليًا، يتم تطبيق الذكاء الاصطناعي الدستوري بشكل أساسي على نماذج اللغات الكبيرة (LLMs) لمهام مثل إنشاء الحوار و تلخيص النصوص. ومع ذلك، يمكن أن تمتد المبادئ الأساسية إلى مجالات الذكاء الاصطناعي الأخرى، بما في ذلك رؤية الكمبيوتر (CV). على سبيل المثال:

لا يزال تطوير وتحسين الدساتير الفعالة، إلى جانب ضمان التزام الذكاء الاصطناعي بها بأمانة عبر سياقات متنوعة، من المجالات النشطة للبحث داخل منظمات مثل Google AI و معهد سلامة الذكاء الاصطناعي. تسهل أدوات مثل Ultralytics HUB تدريب ونشر نماذج الذكاء الاصطناعي المختلفة، وسيزداد دمج المبادئ المشابهة للذكاء الاصطناعي الدستوري أهمية لضمان نشر النماذج بمسؤولية.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة