اكتشف كيف يضمن الذكاء الاصطناعي الدستوري مخرجات أخلاقية وآمنة وغير متحيزة للذكاء الاصطناعي من خلال مواءمة النماذج مع المبادئ والقيم الإنسانية المحددة مسبقاً.
الذكاء الاصطناعي الدستوري (CAI) هو طريقة طورتها شركة أنثروبيك لتدريب نماذج الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة (LLMs)، لتتماشى مع مجموعة محددة من القواعد أو المبادئ، والمعروفة باسم "الدستور". الهدف الأساسي من الذكاء الاصطناعي للذكاء الاصطناعي هو جعل أنظمة الذكاء الاصطناعي مفيدة وغير ضارة وأكثر قابلية للتحكم دون الحاجة إلى تغذية راجعة بشرية مكثفة. فبدلاً من أن يقوم البشر بتصنيف المخرجات الضارة باستمرار، يتعلم الذكاء الاصطناعي نقد ومراجعة استجاباته الخاصة بناءً على المبادئ التوجيهية في دستوره. ويساعد هذا النهج في معالجة التحديات الرئيسية في أخلاقيات الذكاء الاصطناعي، مثل منع توليد محتوى ضار والحد من التحيز الخوارزمي.
عادةً ما تتضمن عملية تدريب CAI مرحلتين رئيسيتين:
من الأمثلة الرئيسية في العالم الحقيقي للذكاء الاصطناعي CAI هو تطبيقه في مساعد الذكاء الاصطناعي الخاص بشركة أنثروبيك، كلود. حيث يرشده دستوره إلى تجنب إصدار تعليمات ضارة، ورفض الانخراط في أنشطة غير قانونية، والتواصل بطريقة غير ضارة، مع الحفاظ على فائدته. هناك تطبيق آخر في الإشراف الآلي على المحتوى، حيث يمكن استخدام نموذج يحركه الذكاء الاصطناعي المعتمد على الذكاء الاصطناعي لتحديد خطاب الكراهية أو المعلومات المضللة على الإنترنت والإبلاغ عنها وفقاً لمجموعة محددة مسبقاً من المبادئ التوجيهية الأخلاقية.
من المهم التمييز بين CAI والمصطلحات المماثلة:
في الوقت الحالي، يتم تطبيق الذكاء الاصطناعي الدستوري في المقام الأول على الآلات ذات المحركات ذات المحركات المنخفضة لمهام مثل توليد الحوار وتلخيص النصوص. ومع ذلك، يمكن أن تمتد المبادئ الأساسية إلى مجالات الذكاء الاصطناعي الأخرى، بما في ذلك الرؤية الحاسوبية. على سبيل المثال
يظل تطوير الدساتير الفعالة وتنقيحها، إلى جانب ضمان التزام الذكاء الاصطناعي بها بأمانة في سياقات متنوعة، مجالات بحثية نشطة داخل مؤسسات مثل جوجل للذكاء الاصط ناعي ومعهد أمان الذكاء الاصطناعي. تعمل أدوات مثل Ultralytics HUB على تسهيل تدريب نماذج الذكاء الاصطناعي المختلفة ونشرها، وسيصبح دمج المبادئ المشابهة للذكاء الاصطناعي الدستوري ذا أهمية متزايدة لضمان نشر النموذج بشكل مسؤول.