Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الخصوصية التفاضلية

Explore how [differential privacy](https://www.ultralytics.com/glossary/differential-privacy) protects sensitive data in ML. Learn about privacy budgets, noise injection, and securing [YOLO26](https://docs.ultralytics.com/models/yolo26/) workflows.

الخصوصية التفاضلية هي إطار عمل رياضي صارم يستخدم في تحليل البيانات و التعلم الآلي (ML) لتقييم وتحديد مخاطر الخصوصية للأفراد الذين يتم تضمين بياناتهم في مجموعة بيانات. على عكس تقنيات إخفاء الهوية التقليدية ، التي يمكن عكسها في كثير من الأحيان عن طريق المقارنة مع قواعد بيانات أخرى، توفر الخصوصية التفاضلية ضمانة قابلة للإثبات بأن ناتج الخوارزمية يظل متطابقًا تقريبًا سواء تم تضمين معلومات أي فرد معين أو حذفها. يتيح هذا النهج للباحثين والمؤسسات استخراج تحليلات بيانات مفيدة وتدريب نماذج قوية مع ضمان عدم تمكن المهاجمين من عكس هندسة النتائج لتحديد مستخدمين معينين أو الكشف عن سمات حساسة.

آلية ميزانيات الخصوصية

يعتمد المفهوم الأساسي للخصوصية التفاضلية على إدخال قدر محسوب من "الضوضاء" — التباين العشوائي — في البيانات أو ناتج الخوارزمية. تخضع هذه العملية لمعلمة تُعرف باسم Epsilon (ε)، وتُسمى أيضًا "ميزانية الخصوصية". تحدد الميزانية التوازن بين الحفاظ على الخصوصية ودقة (فائدة) النتائج.

  • إبسيلون منخفض: يضيف المزيد من الضوضاء، ويوفر ضمانات خصوصية أقوى ولكنه قد يقلل من دقة رؤى النموذج.
  • إبسيلون عالي: يقلل من الضوضاء، ويحافظ على فائدة البيانات العالية ولكنه يوفر حماية أضعف للخصوصية .

في سياق التعلم العميق (DL)، غالبًا ما يتم إدخال الضوضاء أثناء عملية الهبوط التدرجي. من خلال قص التدرجات وإضافة العشوائية قبل تحديث أوزان النموذج، يمنع المطورون الشبكة العصبية من "حفظ" أمثلة تدريب محددة. وهذا يضمن أن النموذج يتعلم السمات العامة — مثل شكل الورم في تحليل الصور الطبية— دون الاحتفاظ بالعلامات البيومترية المميزة لمريض معين.

تطبيقات واقعية

الخصوصية التفاضلية أمر بالغ الأهمية لنشر مبادئ أخلاقيات الذكاء الاصطناعي في القطاعات التي تكون فيها حساسية البيانات بالغة الأهمية.

  • الرعاية الصحية والأبحاث السريرية: تستخدم المستشفيات الخصوصية التفاضلية للتعاون في نماذج التدريب للكشف عن الأورام دون انتهاك اللوائح مثل HIPAA. من خلال تطبيق هذه التقنيات، يمكن للمؤسسات تجميع مجموعات بيانات متباينة لتحسين الذكاء الاصطناعي في تشخيص الرعاية الصحية مع ضمان رياضيًا عدم إمكانية إعادة بناء التاريخ الطبي لأي مريض من النموذج المشترك.
  • قياس الأجهزة الذكية عن بُعد: Google شركات التكنولوجيا الكبرى مثل Apple و Google الخصوصية التفاضلية المحلية لتحسين تجربة المستخدم. على سبيل المثال، عندما يقترح الهاتف الذكي الكلمة التالية في الجملة أو يحدد الرموز التعبيرية الشائعة ، يتم التعلم على الجهاز. تتم إضافة ضوضاء إلى البيانات قبل إرسالها إلى السحابة، مما يسمح للشركة بتحديد الاتجاهات الإجمالية، مثل أنماط حركة المرور، دون رؤية النص الخام أو بيانات الموقع الخاصة بمستخدم فردي.

الخصوصية التفاضلية مقابل المفاهيم ذات الصلة

لتنفيذ خط أنابيب آمن للتعلم الآلي، من الضروري التمييز بين الخصوصية التفاضلية ومصطلحات الأمان الأخرى.

  • الخصوصية التفاضلية مقابل خصوصية البيانات: خصوصية البيانات هي النظام القانوني والأخلاقي الأوسع نطاقًا المتعلق بكيفية جمع البيانات واستخدامها (على سبيل المثال، الالتزام باللائحة العامة لحماية البيانات). الخصوصية التفاضلية هي أداة تقنية محددة تُستخدم لتحقيق أهداف الخصوصية تلك بطريقة رياضية.
  • الخصوصية التفاضلية مقابل أمن البيانات: يتضمن أمن البيانات منع الوصول غير المصرح به من خلال التشفير وجدران الحماية. بينما يحمي الأمن البيانات من السرقة، تحمي الخصوصية التفاضلية البيانات من هجمات الاستدلال— حيث يحاول المستخدمون المصرح لهم استنتاج معلومات حساسة من نتائج الاستعلام المشروعة.
  • الخصوصية التفاضلية مقابل التعلم الفيدرالي: التعلم الفيدرالي هو طريقة تدريب لامركزية حيث تظل البيانات على الأجهزة المحلية. على الرغم من أنه يعزز الخصوصية عن طريق الاحتفاظ بالبيانات الأولية محليًا، إلا أنه لا يضمن عدم تسرب المعلومات من تحديثات النموذج المشترك. لذلك، غالبًا ما يتم الجمع بين الخصوصية التفاضلية والتعلم الفيدرالي لتأمين عملية تحسين النموذج بشكل كامل.

محاكاة إدخال الضوضاء في الرؤية الحاسوبية

أحد جوانب الخصوصية التفاضلية يتضمن اضطراب المدخلات — إضافة ضوضاء إلى البيانات بحيث لا يمكن للخوارزمية الاعتماد على قيم البكسل الدقيقة. في حين أن الخصوصية التفاضلية الحقيقية تتطلب حلقات تدريب معقدة (مثلSGD)، فإن Python التالي Python يوضح مفهوم إضافة ضوضاء غاوسية إلى صورة قبل الاستدلال. وهذا يحاكي كيفية اختبار متانة النموذج أو إعداد البيانات لخط أنابيب يحافظ على الخصوصية باستخدام YOLO26.

import torch
from ultralytics import YOLO

# Load the latest YOLO26 model (optimized for end-to-end performance)
model = YOLO("yolo26n.pt")

# Create a dummy image tensor (Batch, Channel, Height, Width)
img_tensor = torch.rand(1, 3, 640, 640)

# Generate Gaussian noise (simulate privacy noise injection)
noise = torch.randn_like(img_tensor) * 0.1  # Epsilon proxy: scale of noise

# Add noise to the input data
noisy_input = img_tensor + noise

# Run inference on the noisy data
# A robust model should still detect general patterns despite the noise
results = model(noisy_input)
print(f"Detections on noisy input: {len(results[0].boxes)}")

إدارة مجموعات البيانات الآمنة

غالبًا ما يتطلب تنفيذ الخصوصية التفاضلية إدارة دقيقة لمجموعات البيانات لضمان تتبع "ميزانية الخصوصية" بشكل صحيح عبر عدة دورات تدريبية. توفر Ultralytics بيئة مركزية للفرق لإدارة بيانات التدريب الخاصة بهم، track و ضمان نشر النماذج بشكل آمن. من خلال الحفاظ على رقابة صارمة على إصدارات البيانات والوصول إليها، يمكن للمؤسسات تنفيذ أطر عمل الخصوصية المتقدمة بشكل أفضل والالتزام بمعايير الامتثال في مشاريع الرؤية الحاسوبية (CV).

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن