بالنقر فوق “قبول جميع ملفات تعريف الارتباط”، فإنك توافق على تخزين ملفات تعريف الارتباط على جهازك لتحسين التنقل في الموقع وتحليل استخدام الموقع والمساعدة في جهودنا التسويقية. مزيد من المعلومات
إعدادات ملفات تعريف الارتباط
بالنقر فوق “قبول جميع ملفات تعريف الارتباط”، فإنك توافق على تخزين ملفات تعريف الارتباط على جهازك لتحسين التنقل في الموقع وتحليل استخدام الموقع والمساعدة في جهودنا التسويقية. مزيد من المعلومات
تعرّف على كيف يساعد الذكاء الاصطناعي الدستوري النماذج على اتباع القواعد الأخلاقية، واتخاذ قرارات أكثر أمانًا، ودعم العدالة في أنظمة اللغة والرؤية الحاسوبية.
أصبح الذكاء الاصطناعي (AI) بسرعة جزءًا أساسيًا من حياتنا اليومية. يتم دمجه في الأدوات المستخدمة في مجالات مثل الرعاية الصحية والتوظيف والتمويل والسلامة العامة. مع توسع هذه الأنظمة، يتم التعبير أيضًا عن المخاوف بشأن أخلاقياتها وموثوقيتها.
على سبيل المثال، في بعض الأحيان يمكن لأنظمة الذكاء الاصطناعي التي يتم بناؤها دون مراعاة العدالة أو السلامة أن تنتج نتائج متحيزة أو غير موثوقة. وذلك لأن العديد من النماذج لا تزال لا تملك طريقة واضحة للتفكير والتوافق مع القيم الإنسانية.
لمعالجة هذه التحديات، يستكشف الباحثون الآن نهجًا يُعرف باسم الذكاء الاصطناعي الدستوري. ببساطة، يقدم مجموعة مكتوبة من المبادئ في عملية تدريب النموذج. تساعد هذه المبادئ النموذج على الحكم على سلوكه الخاص، والاعتماد بشكل أقل على ملاحظات الإنسان، وجعل الاستجابات أكثر أمانًا وأسهل للفهم.
حتى الآن، تم استخدام هذا النهج في الغالب فيما يتعلق بنماذج اللغة الكبيرة (LLMs). ومع ذلك، يمكن أن يساعد الهيكل نفسه في توجيه أنظمة الرؤية الحاسوبية لاتخاذ قرارات أخلاقية أثناء تحليل البيانات المرئية.
في هذه المقالة، سنستكشف كيف يعمل الذكاء الاصطناعي الدستوري، ونلقي نظرة على أمثلة واقعية، ونناقش تطبيقاته المحتملة في أنظمة الرؤية الحاسوبية.
الشكل 1. خصائص الذكاء الاصطناعي الدستوري. صورة للمؤلف.
ما هو الذكاء الاصطناعي الدستوري؟
الذكاء الاصطناعي الدستوري هو أسلوب تدريب النماذج الذي يوجه سلوك نماذج الذكاء الاصطناعي من خلال توفير مجموعة واضحة من القواعد الأخلاقية. تعمل هذه القواعد كمدونة لقواعد السلوك. بدلاً من الاعتماد على النموذج لاستنتاج ما هو مقبول، فإنه يتبع مجموعة مكتوبة من المبادئ التي تشكل استجاباته أثناء التدريب.
تم تقديم هذا المفهوم من قبل Anthropic، وهي شركة أبحاث تركز على سلامة الذكاء الاصطناعي قامت بتطوير عائلة Claude LLM كطريقة لجعل أنظمة الذكاء الاصطناعي أكثر إشرافاً ذاتياً في اتخاذ القرارات.
بدلًا من الاعتماد فقط على تعليقات المستخدمين، يتعلم النموذج انتقاد وتنقيح استجاباته الخاصة بناءً على مجموعة محددة مسبقًا من المبادئ. يشبه هذا النهج النظام القانوني، حيث يشير القاضي إلى دستور قبل إصدار حكم.
في هذه الحالة، يصبح النموذج هو الحكم والطالب في آنٍ واحد، حيث يستخدم نفس مجموعة القواعد لمراجعة سلوكه وتحسينه. تعزز هذه العملية مواءمة نموذج الذكاء الاصطناعي وتدعم تطوير أنظمة ذكاء اصطناعي آمنة ومسؤولة.
كيف يعمل الذكاء الاصطناعي الدستوري؟
الهدف من الذكاء الاصطناعي الدستوري هو تعليم نموذج الذكاء الاصطناعي كيفية اتخاذ قرارات آمنة وعادلة من خلال اتباع مجموعة واضحة من القواعد المكتوبة. إليك شرح بسيط لكيفية عمل هذه العملية:
تحديد الدستور: يتم إنشاء قائمة مكتوبة بالمبادئ الأخلاقية التي يجب أن يتبعها النموذج. يحدد الدستور ما يجب أن يتجنبه الذكاء الاصطناعي والقيم التي يجب أن يعكسها.
التدريب مع تحت إشراف أمثلة: يُعرض على النموذج نماذج من الاستجابات التي تتبع الدستور. تساعد هذه الأمثلة الذكاء الاصطناعي على فهم شكل السلوك المقبول.
التعرف على الأنماط وتطبيقها: بمرور الوقت، يبدأ النموذج في التقاط هذه الأنماط. ويتعلم تطبيق نفس القيم عند الإجابة على أسئلة جديدة أو التعامل مع مواقف جديدة.
نقد وتنقيح المخرجات: يراجع النموذج استجاباته الخاصة ويعدّلها بناءً على الدستور. تساعد مرحلة المراجعة الذاتية هذه على تحسينه دون الاعتماد فقط على ملاحظات المستخدمين.
إنتاج استجابات متوافقة وأكثر أمانًا: يتعلم النموذج من قواعد متسقة، مما يساعد على تقليل التحيز وتحسين الموثوقية في الاستخدام الواقعي. هذا النهج يجعله أكثر توافقًا مع القيم الإنسانية وأسهل في التحكم.
الشكل 2. نظرة عامة على استخدام الذكاء الاصطناعي الدستوري لتدريب النماذج.
المبادئ الأساسية لتصميم الذكاء الاصطناعي الأخلاقي
لكي يتبع نموذج الذكاء الاصطناعي قواعد أخلاقية، يجب تحديد هذه القواعد بوضوح أولاً. عندما يتعلق الأمر بالذكاء الاصطناعي الدستوري، تستند هذه القواعد إلى مجموعة من المبادئ الأساسية.
على سبيل المثال، إليك أربعة مبادئ تشكل أساس دستور فعال للذكاء الاصطناعي:
الشفافية: يجب أن يكون من السهل فهم كيف توصل النموذج إلى إجابة. إذا كانت الاستجابة تستند إلى الحقائق أو التقديرات أو الأنماط، فسوف تكون شفافة للمستخدم. هذا يبني الثقة ويساعد الأشخاص على الحكم على ما إذا كان بإمكانهم الاعتماد على مخرجات النموذج.
المساواة: يجب أن تظل الاستجابات متسقة عبر المستخدمين المختلفين. يجب ألا يغير النموذج مخرجاته بناءً على اسم الشخص أو خلفيته أو موقعه. تساعد المساواة في منع التحيز وتعزيز المعاملة المتساوية.
المساءلة: يجب أن تكون هناك طريقة لتتبع كيفية تدريب النموذج وما الذي أثر على سلوكه. عندما يحدث خطأ ما، يجب أن تكون الفرق قادرة على تحديد السبب وتحسينه. وهذا يدعم الشفافية والمساءلة على المدى الطويل.
السلامة: تحتاج النماذج إلى تجنب إنتاج محتوى يمكن أن يسبب ضررًا. إذا أدى طلب ما إلى مخرجات خطرة أو غير آمنة، يجب أن يتعرف النظام على ذلك ويتوقف. هذا يحمي كلاً من المستخدم وسلامة النظام.
أمثلة على الذكاء الاصطناعي الدستوري في نماذج اللغة الكبيرة
انتقل الذكاء الاصطناعي الدستوري من النظرية إلى الممارسة ويستخدم الآن ببطء في النماذج الكبيرة التي تتفاعل مع ملايين المستخدمين. من أكثر الأمثلة شيوعًا LLMs من OpenAI و Anthropic.
في حين أن كلتا المنظمتين قد اتخذتا مناهج مختلفة لإنشاء أنظمة ذكاء اصطناعي أكثر أخلاقية، إلا أنهما تشتركان في فكرة مشتركة: تعليم النموذج اتباع مجموعة من المبادئ التوجيهية المكتوبة. دعونا نلقي نظرة فاحصة على هذه الأمثلة.
نهج الذكاء الاصطناعي الدستوري لـ OpenAI
قدمت OpenAI وثيقة تسمى Model Spec كجزء من عملية التدريب لنماذج ChatGPT الخاصة بها. تعمل هذه الوثيقة كدستور. تحدد ما يجب أن يهدف إليه النموذج في استجاباته، بما في ذلك قيم مثل المساعدة والصدق والسلامة. كما تحدد ما يعتبر إخراجًا ضارًا أو مضللًا.
تم استخدام هذا الإطار لضبط نماذج OpenAI عن طريق تقييم الاستجابات وفقًا لمدى توافقها مع القواعد. بمرور الوقت، ساعد ذلك في تشكيل ChatGPT بحيث ينتج عددًا أقل من المخرجات الضارة ويتوافق بشكل أفضل مع ما يريده المستخدمون بالفعل.
الشكل 3. مثال على استخدام ChatGPT لمواصفات نموذج OpenAI للرد.
نماذج الذكاء الاصطناعي الأخلاقية لشركة Anthropic
يعتمد الدستور الذي يتبعه نموذج Anthropic، Claude، على المبادئ الأخلاقية من مصادر مثل الإعلان العالمي لحقوق الإنسان، وإرشادات النظام الأساسي مثل شروط خدمة Apple، والأبحاث من مختبرات الذكاء الاصطناعي الأخرى. تساعد هذه المبادئ في ضمان أن تكون استجابات Claude آمنة وعادلة ومتوافقة مع القيم الإنسانية المهمة.
يستخدم Claude أيضًا التعلم بالتعزيز من خلال ملاحظات الذكاء الاصطناعي (RLAIF)، حيث يراجع ويعدل استجاباته الخاصة بناءً على هذه الإرشادات الأخلاقية، بدلاً من الاعتماد على ملاحظات بشرية. تمكن هذه العملية Claude من التحسن بمرور الوقت، مما يجعلها أكثر قابلية للتطوير وأفضل في تقديم إجابات مفيدة وأخلاقية وغير ضارة، حتى في المواقف الصعبة.
الشكل 4. فهم نهج Anthropic للذكاء الاصطناعي الدستوري.
تطبيق الذكاء الاصطناعي الدستوري على رؤية الكمبيوتر
نظرًا لأن الذكاء الاصطناعي الدستوري يؤثر بشكل إيجابي على كيفية تصرف النماذج اللغوية، فإنه يؤدي بشكل طبيعي إلى السؤال التالي: هل يمكن لنهج مماثل أن يساعد الأنظمة القائمة على الرؤية على الاستجابة بشكل أكثر عدلاً وأمانًا؟
في حين أن نماذج الرؤية الحاسوبية تتعامل مع الصور بدلاً من النصوص، فإن الحاجة إلى التوجيه الأخلاقي لا تقل أهمية. على سبيل المثال، تعد العدالة والتحيز من العوامل الرئيسية التي يجب مراعاتها، حيث يجب تدريب هذه الأنظمة على معاملة الجميع على قدم المساواة وتجنب النتائج الضارة أو غير العادلة عند تحليل البيانات المرئية.
الشكل 5. التحديات الأخلاقية المتعلقة بالرؤية الحاسوبية. صورة من إعداد المؤلف.
في الوقت الحالي، لا يزال استخدام أساليب الذكاء الاصطناعي الدستوري في الرؤية الحاسوبية قيد الاستكشاف وفي مراحله المبكرة، مع وجود أبحاث جارية في هذا المجال.
على سبيل المثال، قدمت Meta مؤخرًا CLUE، وهو إطار عمل يطبق التفكير الشبيه بالدستور على مهام سلامة الصور. إنه يحول قواعد السلامة العامة إلى خطوات دقيقة يمكن للذكاء الاصطناعي متعدد الوسائط (أنظمة الذكاء الاصطناعي التي تعالج وتفهم أنواعًا متعددة من البيانات) اتباعها. يساعد هذا النظام على التفكير بشكل أكثر وضوحًا وتقليل النتائج الضارة.
أيضًا، تجعل CLUE أحكام سلامة الصور أكثر كفاءة من خلال تبسيط القواعد المعقدة، مما يسمح لنماذج الذكاء الاصطناعي بالتصرف بسرعة وبدقة دون الحاجة إلى إدخال بشري مكثف. باستخدام مجموعة من المبادئ التوجيهية، تجعل CLUE أنظمة الإشراف على الصور أكثر قابلية للتطوير مع ضمان نتائج عالية الجودة.
النقاط الرئيسية
مع تولي أنظمة الذكاء الاصطناعي المزيد من المسؤولية، يتحول التركيز من مجرد ما يمكنها فعله إلى ما يجب أن تفعله. هذا التحول أساسي لأن هذه الأنظمة تستخدم في مجالات تؤثر بشكل مباشر على حياة الناس، مثل الرعاية الصحية وإنفاذ القانون والتعليم.
لضمان عمل أنظمة الذكاء الاصطناعي بشكل مناسب وأخلاقي، فإنها تحتاج إلى أساس متين وثابت. يجب أن يعطي هذا الأساس الأولوية للعدالة والسلامة والثقة.
يمكن للدستور المكتوب أن يوفر هذا الأساس أثناء التدريب، وتوجيه عملية اتخاذ القرار في النظام. ويمكن أن يمنح المطورين أيضًا إطارًا لمراجعة وتعديل سلوك النظام بعد النشر، مما يضمن استمراره في التوافق مع القيم التي صُمم لدعمها وتسهيل التكيف مع ظهور تحديات جديدة.