اكتشف كيف يضمن الذكاء الاصطناعي الدستوري مخرجات ذكاء اصطناعي أخلاقية وآمنة وغير متحيزة من خلال مواءمة النماذج مع المبادئ والقيم الإنسانية المحددة مسبقًا.
الذكاء الاصطناعي الدستوري (CAI) هو منهجية تدريب مصممة لمواءمة أنظمة الذكاء الاصطناعي (AI) مع القيم الإنسانية من خلال تضمين مجموعة محددة مسبقًا من القواعد، أو "الدستور"، مباشرةً في عملية التدريب مباشرةً في عملية التدريب. على عكس المناهج التقليدية التي تعتمد بشكل كبير على التغذية الراجعة البشرية لكل مخرجات محددة، تتيح منهجية الذكاء الاصطناعي للذكاء الاصطناعي النموذج من نقد ومراجعة سلوكه الخاص استنادًا إلى مبادئ مثل المساعدة والصدق وعدم الإضرار. هذا النهج النهج يعالج الحاجة المتزايدة لسلامة الذكاء الاصطناعي من خلال أتمتة عملية المواءمة، مما يجعل من الممكن تدريب مساعدين قادرين يحترمون المبادئ التوجيهية الأخلاقية دون الحاجة إلى قدر لا يمكن التحكم فيه من الإشراف البشري. من خلال التحكم في سلوك النموذج من خلال صريحة، يمكن للمطورين تقليل التحيز الخوارزمي ومنع توليد محتوى سام أو غير آمن.
يتضمن سير العمل للذكاء الاصطناعي المؤسسي عادةً مرحلتين متميزتين تتجاوزان المعيار القياسية. تسمح هاتان المرحلتان للنموذج للنموذج بالتعلم من ملاحظاته الخاصة، مسترشداً بالدستور، بدلاً من التسميات البشرية الخارجية فقط.
من المهم التمييز بين التعلّم المعزز من التغذية الراجعة البشرية التعلّم المعزز من التغذية الراجعة البشرية (RLHF)، حيث أنهما يمثلان استراتيجيات مختلفة للمواءمة.
بينما نشأ الذكاء الاصطناعي الدستوري في سياق نماذج اللغات الكبيرة (LLM) التي طورتها منظمات مثل Anthropicفإن مبادئه يتم تكييفها بشكل متزايد لمهام التعلم الآلي الأوسع، بما في ذلك الرؤية الحاسوبية (CV).
بينما يتضمن التدريب الكامل للذكاء الاصطناعي الدستوري حلقات معقدة من التغذية الراجعة، يمكن للمطورين تطبيق مفهوم "الضوابط الدستورية" أثناء الاستدلال لتصفية المخرجات بناءً على السياسات. يوضح المثال التالي استخدام YOLO11detect الأجسام وتطبيق قاعدة أمان افتراضية لتصفية الاكتشافات منخفضة الثقة، مما يضمن موثوقية عالية.
from ultralytics import YOLO
# Load the YOLO11 model (latest stable Ultralytics release)
model = YOLO("yolo11n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
مع تطور النماذج نحو الذكاء الاصطناعي العام (AGI)، تزداد أهمية استراتيجيات المواءمة القوية مثل الذكاء الاصطناعي المؤسسي. هذه الأساليب ضرورية من أجل الامتثال للمعايير الناشئة من هيئات مثل معهد NIST لسلامة الذكاء الاصطناعي العام.
تبحث Ultralytics بنشاط في كيفية دمج ميزات السلامة والمواءمة في دورة حياة النموذج. تهدف تهدف بنية YOLO26 القادمة، التي لا تزال قيد البحث والتطوير حاليًا، إلى دمج المتقدمة التي تتماشى مع أهداف السلامة هذه، مما يضمن أن يظل نشر النموذج يظل نشر النموذج آمنًا وفعالًا في جميع الصناعات. بالإضافة إلى ذلك، ستوفر منصة Ultralytics الموحدة أدوات لإدارة حوكمة البيانات و ومراقبة سلوك النموذج، مما يسهل إنشاء أنظمة ذكاء اصطناعي مسؤولة.