مسرد المصطلحات

الذكاء الاصطناعي الدستوري

اكتشف كيف يضمن الذكاء الاصطناعي الدستوري مخرجات أخلاقية وآمنة وغير متحيزة للذكاء الاصطناعي من خلال مواءمة النماذج مع المبادئ والقيم الإنسانية المحددة مسبقاً.

الذكاء الاصطناعي الدستوري (CAI) هو طريقة طورتها شركة أنثروبيك لتدريب نماذج الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة (LLMs)، لتتماشى مع مجموعة محددة من القواعد أو المبادئ، والمعروفة باسم "الدستور". الهدف الأساسي من الذكاء الاصطناعي للذكاء الاصطناعي هو جعل أنظمة الذكاء الاصطناعي مفيدة وغير ضارة وأكثر قابلية للتحكم دون الحاجة إلى تغذية راجعة بشرية مكثفة. فبدلاً من أن يقوم البشر بتصنيف المخرجات الضارة باستمرار، يتعلم الذكاء الاصطناعي نقد ومراجعة استجاباته الخاصة بناءً على المبادئ التوجيهية في دستوره. ويساعد هذا النهج في معالجة التحديات الرئيسية في أخلاقيات الذكاء الاصطناعي، مثل منع توليد محتوى ضار والحد من التحيز الخوارزمي.

كيف يعمل الذكاء الاصطناعي الدستوري

عادةً ما تتضمن عملية تدريب CAI مرحلتين رئيسيتين:

  1. مرحلة التعلّم تحت الإشراف: في البداية، يُطلب من النموذج التأسيسي توليد الاستجابات. ثم يُطلب من النموذج نفسه نقد استجاباته الخاصة بناءً على الدستور وإعادة كتابتها لتتماشى بشكل أفضل مع مبادئه. يؤدي ذلك إلى إنشاء مجموعة بيانات جديدة من الأمثلة المحسنة والمتوافقة مع الدستور. تسترشد آلية النقد الذاتي هذه بالدستور، الذي يمكن أن يكون قائمة بسيطة من القواعد أو مستمدة من مصادر معقدة مثل إعلان الأمم المتحدة لحقوق الإنسان.
  2. مرحلة التعلّم المعزز: ثم يتم ضبط النموذج بعد ذلك باستخدام التعلّم المعزز (RL). في هذه المرحلة، يُنشئ الذكاء الاصطناعي أزواجًا من الاستجابات، ويختار نموذج التفضيل (الذي تم تدريبه على البيانات التي تم نقدها ذاتيًا من المرحلة الأولى) أفضلها التزامًا بالدستور. تعلم هذه العملية الذكاء الاصطناعي أن يفضل بشكل جوهري المخرجات التي تتوافق مع مبادئه الأساسية.

من الأمثلة الرئيسية في العالم الحقيقي للذكاء الاصطناعي CAI هو تطبيقه في مساعد الذكاء الاصطناعي الخاص بشركة أنثروبيك، كلود. حيث يرشده دستوره إلى تجنب إصدار تعليمات ضارة، ورفض الانخراط في أنشطة غير قانونية، والتواصل بطريقة غير ضارة، مع الحفاظ على فائدته. هناك تطبيق آخر في الإشراف الآلي على المحتوى، حيث يمكن استخدام نموذج يحركه الذكاء الاصطناعي المعتمد على الذكاء الاصطناعي لتحديد خطاب الكراهية أو المعلومات المضللة على الإنترنت والإبلاغ عنها وفقاً لمجموعة محددة مسبقاً من المبادئ التوجيهية الأخلاقية.

الذكاء الاصطناعي الدستوري مقابل المفاهيم ذات الصلة

من المهم التمييز بين CAI والمصطلحات المماثلة:

  • التعلم المعزز من التغذية الراجعة البشرية (RLHF): يعتمد التعلّم المعزز من التغذية الراجعة البشرية على البشر لتقديم التغذية الراجعة وترتيب الاستجابات التي يولدها الذكاء الاصطناعي، وهو أمر يستغرق وقتًا طويلاً ويصعب توسيع نطاقه. يستبدل الذكاء الاصطناعي من التغذية الراجعة البشرية بحلقة تغذية راجعة تعتمد على الذكاء الاصطناعي، حيث يقوم النموذج بتوجيه التغذية الراجعة. وهذا يجعل عملية المواءمة أكثر قابلية للتطوير والاتساق.
  • أخلاقيات الذكاء الاصطناعي: وهو مجال واسع يُعنى بالمبادئ الأخلاقية والمشاكل التقنية المتعلقة بإنشاء ذكاء اصطناعي مسؤول. ويمكن النظر إلى الذكاء الاصطناعي الدستوري كإطار عملي لتطبيق أخلاقيات الذكاء الاصطناعي من خلال تضمين قواعد أخلاقية صريحة مباشرة في عملية تدريب النموذج.

التطبيقات والإمكانات المستقبلية

في الوقت الحالي، يتم تطبيق الذكاء الاصطناعي الدستوري في المقام الأول على الآلات ذات المحركات ذات المحركات المنخفضة لمهام مثل توليد الحوار وتلخيص النصوص. ومع ذلك، يمكن أن تمتد المبادئ الأساسية إلى مجالات الذكاء الاصطناعي الأخرى، بما في ذلك الرؤية الحاسوبية. على سبيل المثال

يظل تطوير الدساتير الفعالة وتنقيحها، إلى جانب ضمان التزام الذكاء الاصطناعي بها بأمانة في سياقات متنوعة، مجالات بحثية نشطة داخل مؤسسات مثل جوجل للذكاء الاصط ناعي ومعهد أمان الذكاء الاصطناعي. تعمل أدوات مثل Ultralytics HUB على تسهيل تدريب نماذج الذكاء الاصطناعي المختلفة ونشرها، وسيصبح دمج المبادئ المشابهة للذكاء الاصطناعي الدستوري ذا أهمية متزايدة لضمان نشر النموذج بشكل مسؤول.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة