تعرف على الركائز الأساسية لسلامة الذكاء الاصطناعي، بما في ذلك التوافق والمتانة. اكتشف كيفية نشر نماذج موثوقة باستخدام Ultralytics وضمان موثوقية الذكاء الاصطناعي.
سلامة الذكاء الاصطناعي هو مجال متعدد التخصصات يركز على ضمان أن أنظمة الذكاء الاصطناعي (AI) تعمل بشكل موثوق ويمكن التنبؤ به ومفيد. على عكس الأمن السيبراني، الذي يحمي الأنظمة من الهجمات الخارجية، تتناول سلامة الذكاء الاصطناعي المخاطر الكامنة في تصميم وتشغيل النظام نفسه. ويشمل ذلك منع العواقب غير المقصودة الناجمة عن عدم توافق الأهداف، أو الافتقار إلى المتانة في البيئات الجديدة، أو الفشل في تعميم التعلم العميق (DL). مع زيادة استقلالية النماذج، يعمل الباحثون في مؤسسات مثل مركز الذكاء الاصطناعي المتوافق مع الإنسان على ضمان توافق هذه التقنيات مع القصد البشري ومعايير السلامة.
يتطلب بناء نظام آمن معالجة العديد من التحديات التقنية التي تتجاوز مقاييس الدقة البسيطة. تضمن هذه الركائز أن تظل نماذج التعلم الآلي (ML) تحت السيطرة حتى عند نشرها في سيناريوهات معقدة في العالم الحقيقي.
تعد سلامة الذكاء الاصطناعي أمرًا بالغ الأهمية في المجالات عالية المخاطر حيث يمكن أن يؤدي فشل الخوارزميات إلى أضرار مادية أو خسائر اقتصادية كبيرة .
أحد آليات الأمان الأساسية في الرؤية الحاسوبية هو استخدام عتبات الثقة. من خلال تصفية التنبؤات ذات الاحتمالية المنخفضة أثناء الاستدلال، يمنع المطورون الأنظمة من العمل بناءً على معلومات ضعيفة.
يوضح المثال التالي كيفية تطبيق مرشح أمان باستخدام Ultralytics لضمان معالجة الاكتشافات الموثوقة فقط .
from ultralytics import YOLO
# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")
# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)
# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")
على الرغم من أن هذه المصطلحات غالبًا ما تستخدم بشكل متبادل، إلا أنها تتناول جوانب مختلفة من الذكاء الاصطناعي المسؤول.
مع تقدم الصناعة نحو الذكاء الاصطناعي العام (AGI)، أصبحت أبحاث السلامة أكثر أهمية. يمكن للمؤسسات الاستفادة من Ultralytics لإدارة مجموعات البيانات الخاصة بها والإشراف على نشر النماذج، مما يضمن أن تظل حلول الذكاء الاصطناعي الخاصة بها قوية وشفافة ومتوافقة مع معايير السلامة طوال دورة حياتها.