Explore how [differential privacy](https://www.ultralytics.com/glossary/differential-privacy) protects sensitive data in ML. Learn about privacy budgets, noise injection, and securing [YOLO26](https://docs.ultralytics.com/models/yolo26/) workflows.
الخصوصية التفاضلية هي إطار عمل رياضي صارم يستخدم في تحليل البيانات و التعلم الآلي (ML) لتقييم وتحديد مخاطر الخصوصية للأفراد الذين يتم تضمين بياناتهم في مجموعة بيانات. على عكس تقنيات إخفاء الهوية التقليدية ، التي يمكن عكسها في كثير من الأحيان عن طريق المقارنة مع قواعد بيانات أخرى، توفر الخصوصية التفاضلية ضمانة قابلة للإثبات بأن ناتج الخوارزمية يظل متطابقًا تقريبًا سواء تم تضمين معلومات أي فرد معين أو حذفها. يتيح هذا النهج للباحثين والمؤسسات استخراج تحليلات بيانات مفيدة وتدريب نماذج قوية مع ضمان عدم تمكن المهاجمين من عكس هندسة النتائج لتحديد مستخدمين معينين أو الكشف عن سمات حساسة.
يعتمد المفهوم الأساسي للخصوصية التفاضلية على إدخال قدر محسوب من "الضوضاء" — التباين العشوائي — في البيانات أو ناتج الخوارزمية. تخضع هذه العملية لمعلمة تُعرف باسم Epsilon (ε)، وتُسمى أيضًا "ميزانية الخصوصية". تحدد الميزانية التوازن بين الحفاظ على الخصوصية ودقة (فائدة) النتائج.
في سياق التعلم العميق (DL)، غالبًا ما يتم إدخال الضوضاء أثناء عملية الهبوط التدرجي. من خلال قص التدرجات وإضافة العشوائية قبل تحديث أوزان النموذج، يمنع المطورون الشبكة العصبية من "حفظ" أمثلة تدريب محددة. وهذا يضمن أن النموذج يتعلم السمات العامة — مثل شكل الورم في تحليل الصور الطبية— دون الاحتفاظ بالعلامات البيومترية المميزة لمريض معين.
الخصوصية التفاضلية أمر بالغ الأهمية لنشر مبادئ أخلاقيات الذكاء الاصطناعي في القطاعات التي تكون فيها حساسية البيانات بالغة الأهمية.
لتنفيذ خط أنابيب آمن للتعلم الآلي، من الضروري التمييز بين الخصوصية التفاضلية ومصطلحات الأمان الأخرى.
أحد جوانب الخصوصية التفاضلية يتضمن اضطراب المدخلات — إضافة ضوضاء إلى البيانات بحيث لا يمكن للخوارزمية الاعتماد على قيم البكسل الدقيقة. في حين أن الخصوصية التفاضلية الحقيقية تتطلب حلقات تدريب معقدة (مثلSGD)، فإن Python التالي Python يوضح مفهوم إضافة ضوضاء غاوسية إلى صورة قبل الاستدلال. وهذا يحاكي كيفية اختبار متانة النموذج أو إعداد البيانات لخط أنابيب يحافظ على الخصوصية باستخدام YOLO26.
import torch
from ultralytics import YOLO
# Load the latest YOLO26 model (optimized for end-to-end performance)
model = YOLO("yolo26n.pt")
# Create a dummy image tensor (Batch, Channel, Height, Width)
img_tensor = torch.rand(1, 3, 640, 640)
# Generate Gaussian noise (simulate privacy noise injection)
noise = torch.randn_like(img_tensor) * 0.1 # Epsilon proxy: scale of noise
# Add noise to the input data
noisy_input = img_tensor + noise
# Run inference on the noisy data
# A robust model should still detect general patterns despite the noise
results = model(noisy_input)
print(f"Detections on noisy input: {len(results[0].boxes)}")
غالبًا ما يتطلب تنفيذ الخصوصية التفاضلية إدارة دقيقة لمجموعات البيانات لضمان تتبع "ميزانية الخصوصية" بشكل صحيح عبر عدة دورات تدريبية. توفر Ultralytics بيئة مركزية للفرق لإدارة بيانات التدريب الخاصة بهم، track و ضمان نشر النماذج بشكل آمن. من خلال الحفاظ على رقابة صارمة على إصدارات البيانات والوصول إليها، يمكن للمؤسسات تنفيذ أطر عمل الخصوصية المتقدمة بشكل أفضل والالتزام بمعايير الامتثال في مشاريع الرؤية الحاسوبية (CV).