Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الذكاء الاصطناعي الدستوري

اكتشف كيف يضمن الذكاء الاصطناعي الدستوري مخرجات ذكاء اصطناعي أخلاقية وآمنة وغير متحيزة من خلال مواءمة النماذج مع المبادئ والقيم الإنسانية المحددة مسبقًا.

الذكاء الاصطناعي الدستوري (CAI) هو منهجية تدريب مصممة لمواءمة أنظمة الذكاء الاصطناعي (AI) مع القيم الإنسانية من خلال تضمين مجموعة محددة مسبقًا من القواعد، أو "الدستور"، مباشرةً في عملية التدريب مباشرةً في عملية التدريب. على عكس المناهج التقليدية التي تعتمد بشكل كبير على التغذية الراجعة البشرية لكل مخرجات محددة، تتيح منهجية الذكاء الاصطناعي للذكاء الاصطناعي النموذج من نقد ومراجعة سلوكه الخاص استنادًا إلى مبادئ مثل المساعدة والصدق وعدم الإضرار. هذا النهج النهج يعالج الحاجة المتزايدة لسلامة الذكاء الاصطناعي من خلال أتمتة عملية المواءمة، مما يجعل من الممكن تدريب مساعدين قادرين يحترمون المبادئ التوجيهية الأخلاقية دون الحاجة إلى قدر لا يمكن التحكم فيه من الإشراف البشري. من خلال التحكم في سلوك النموذج من خلال صريحة، يمكن للمطورين تقليل التحيز الخوارزمي ومنع توليد محتوى سام أو غير آمن.

كيف يعمل الذكاء الاصطناعي الدستوري؟

يتضمن سير العمل للذكاء الاصطناعي المؤسسي عادةً مرحلتين متميزتين تتجاوزان المعيار القياسية. تسمح هاتان المرحلتان للنموذج للنموذج بالتعلم من ملاحظاته الخاصة، مسترشداً بالدستور، بدلاً من التسميات البشرية الخارجية فقط.

  1. التعلّم الخاضع للإشراف مع النقد الذاتي: يولد النموذج استجابات للمطالبات ثم ينتقد مخرجاته الخاصة بناءً على مبادئ الدستور. إذا كانت الاستجابة تنتهك قاعدة ما - على سبيل المثال، بأن تكون وقحة أو متحيزة، يقوم النموذج بمراجعتها. يؤدي هذا إلى إنشاء مجموعة بيانات عالية الجودة من الأمثلة المتوافقة من أجل لتدريب النموذج.
  2. التعلم المعزز من التغذية الراجعة للذكاء الاصطناعي (RLAIF): في هذه المرحلة، يقوم النموذج أو نموذج التغذية الراجعة المنفصل منفصلة لتقييم أزواج من الاستجابات واختيار النموذج الذي يتوافق بشكل أفضل مع الدستور. بيانات التفضيل هذه تُستخدم لتدريب نموذج التفضيل، والذي يقوم بعد ذلك بتوجيه النموذج الرئيسي باستخدام التعلّم المعزز. هذا بشكل فعال يستبدل تسميات التفضيلات البشرية بتسميات التفضيل البشرية بأخرى من إنشاء الذكاء الاصطناعي، مما يبسّط عملية الضبط الدقيق.

الذكاء الاصطناعي الدستوري مقابل الجبهة الديمقراطية لتحرير رواندا

من المهم التمييز بين التعلّم المعزز من التغذية الراجعة البشرية التعلّم المعزز من التغذية الراجعة البشرية (RLHF)، حيث أنهما يمثلان استراتيجيات مختلفة للمواءمة.

  • RLHF: يعتمد على الشارحين البشريين لتقييم مخرجات النموذج يدويًا. على الرغم من فعالية هذه العملية، إلا أن هذه العملية من الصعب توسيع نطاقها ويمكن أن تُعرّض العاملين البشريين لمحتوى مزعج أو مؤلم أثناء تصنيف البيانات.
  • الذكاء الاصطناعي الدستوري: يستخدم RLAIF لأتمتة حلقة التغذية الراجعة. من خلال تعريف "الدستور" بشكل صريح، يكتسب المطورون قدرًا أكبر من شفافية أكبر في سلوك الذكاء الاصطناعي، حيث أن القواعد التي تقود القرارات مكتوبة في نص واضح بدلًا من تعلمها ضمنيًا من آلاف التقييمات البشرية الفردية تقييمات بشرية فردية. وهذا يعزز قابلية التوسع ويحمي المُعلِّقين البشر.

تطبيقات واقعية

بينما نشأ الذكاء الاصطناعي الدستوري في سياق نماذج اللغات الكبيرة (LLM) التي طورتها منظمات مثل Anthropicفإن مبادئه يتم تكييفها بشكل متزايد لمهام التعلم الآلي الأوسع، بما في ذلك الرؤية الحاسوبية (CV).

  • روبوتات المحادثة الأخلاقية: يُستخدم الذكاء الاصطناعي الأخلاقي على نطاق واسع لتدريب وكلاء المحادثة الذين يرفضون توليد خطاب كراهية، أو تعليمات لأعمال غير قانونية، أو محتوى متحيز سياسياً. وهذا يضمن أن بقاء أدوات الذكاء الاصطناعي التوليدي آمنة للعامة النشر العام.
  • أنظمة الرؤية الحرجة للسلامة: في المركبات ذاتية القيادة، يمكن لـ يمكن للنهج "الدستوري" تحديد قواعد هرمية لصنع القرار. على سبيل المثال، يمكن لقاعدة تنص على "السلامة البشرية تتجاوز كفاءة حركة المرور" يمكن أن توجه النموذج عند تحليل مشاهد الطرق المعقدة, التأكد من أن نتائج اكتشاف الأجسام مع إعطاء الأولوية للسلامة.

تنفيذ عمليات التحقق من السياسات في الاستدلال

بينما يتضمن التدريب الكامل للذكاء الاصطناعي الدستوري حلقات معقدة من التغذية الراجعة، يمكن للمطورين تطبيق مفهوم "الضوابط الدستورية" أثناء الاستدلال لتصفية المخرجات بناءً على السياسات. يوضح المثال التالي استخدام YOLO11detect الأجسام وتطبيق قاعدة أمان افتراضية لتصفية الاكتشافات منخفضة الثقة، مما يضمن موثوقية عالية.

from ultralytics import YOLO

# Load the YOLO11 model (latest stable Ultralytics release)
model = YOLO("yolo11n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

مستقبل محاذاة الذكاء الاصطناعي

مع تطور النماذج نحو الذكاء الاصطناعي العام (AGI)، تزداد أهمية استراتيجيات المواءمة القوية مثل الذكاء الاصطناعي المؤسسي. هذه الأساليب ضرورية من أجل الامتثال للمعايير الناشئة من هيئات مثل معهد NIST لسلامة الذكاء الاصطناعي العام.

تبحث Ultralytics بنشاط في كيفية دمج ميزات السلامة والمواءمة في دورة حياة النموذج. تهدف تهدف بنية YOLO26 القادمة، التي لا تزال قيد البحث والتطوير حاليًا، إلى دمج المتقدمة التي تتماشى مع أهداف السلامة هذه، مما يضمن أن يظل نشر النموذج يظل نشر النموذج آمنًا وفعالًا في جميع الصناعات. بالإضافة إلى ذلك، ستوفر منصة Ultralytics الموحدة أدوات لإدارة حوكمة البيانات و ومراقبة سلوك النموذج، مما يسهل إنشاء أنظمة ذكاء اصطناعي مسؤولة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن