Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الخصوصية التفاضلية

تعرف على كيف تحمي الخصوصية التفاضلية البيانات الحساسة في الذكاء الاصطناعي/تعلم الآلة، مما يضمن الخصوصية مع تمكين التحليل الدقيق والامتثال للوائح.

الخصوصية التفاضلية هي إطار رياضي قوي يستخدم في تحليل البيانات و التعلّم الآلي (ML) لضمان أن مخرجات لخوارزمية ما لا يكشف عن معلومات حول أي فرد محدد ضمن مجموعة البيانات. من خلال تحديد مقدار فقدان الخصوصية المرتبط بإصدار البيانات، فإنه يسمح للمؤسسات بمشاركة الأنماط والاتجاهات الإجمالية مع الحفاظ على ضمان يمكن إثباته لسرية كل مشارك. أصبح هذا النهج حجر الزاوية في أخلاقيات الذكاء الاصطناعي، مما يمكّن علماء البيانات من استخراج من المعلومات الحساسة دون المساس بثقة المستخدم أو انتهاك المعايير التنظيمية.

كيف تعمل الخصوصية التفاضلية؟

تتضمن الآلية الأساسية للخصوصية التفاضلية حقن كمية محسوبة من الضوضاء الإحصائية في مجموعات البيانات أو نتائج استعلامات قاعدة البيانات. هذه الضوضاء يتم معايرتها بعناية لتكون كبيرة بما يكفي لإخفاء مساهمة أي فرد - مما يجعل من المستحيل للمهاجم أن يحدد ما إذا كانت بيانات شخص معين قد تم تضمينها - ولكن صغيرة بما يكفي للحفاظ على الدقة الإجمالية للإحصائيات المجمعة.

في سياق التعلم العميق (DL)، غالبًا ما يتم تطبيق هذه غالبًا ما يتم تطبيق هذه التقنية أثناء عملية التدريب، وتحديدًا أثناء نزول التدرج. من خلال قص التدرجات وإضافة الضوضاء قبل تحديث أوزان النموذج، يمكن للمطورين إنشاء نماذج تحافظ على الخصوصية. ومع ذلك، فإن هذا يقدم "مفاضلة بين الخصوصية والمنفعة"، حيث قد تؤدي إعدادات الخصوصية الأقوى (مما يؤدي إلى مزيد من التشويش) إلى تقليل دقة النموذج النهائي قليلاً.

المفاهيم الأساسية والتنفيذ

ولتنفيذ الخصوصية التفاضلية، يستخدم الممارسون معاملاً يُعرف باسم "إبسيلون" (ε)، والذي يعمل بمثابة ميزانية الخصوصية. تشير قيمة إبسيلون المنخفضة إلى متطلبات خصوصية أكثر صرامة ومزيد من الضوضاء، في حين أن إبسيلون الأعلى أعلى يسمح ببيانات أكثر دقة ولكن بهامش أوسع لتسرب المعلومات المحتمل. هذا المفهوم بالغ الأهمية عند إعداد بيانات التدريب للمهام الحساسة مثل تحليل الصور الطبية أو التنبؤ المالي.

يوضّح مثال Python التالي المفهوم الأساسي للخصوصية التفاضلية: إضافة ضوضاء إلى البيانات لإخفاء لإخفاء القيم الدقيقة. بينما تستخدم مكتبات مثل Opacus لتدريب النموذج الكامل، يستخدم هذا المقتطف PyTorch لتوضيح آلية حقن الضجيج.

import torch

# Simulate a tensor of sensitive gradients or data points
original_data = torch.tensor([1.5, 2.0, 3.5, 4.0])

# Generate Laplacian noise (common in Differential Privacy) based on a privacy budget
noise_scale = 0.5
noise = torch.distributions.laplace.Laplace(0, noise_scale).sample(original_data.shape)

# Add noise to create a differentially private version
private_data = original_data + noise

print(f"Original: {original_data}")
print(f"Private:  {private_data}")

تطبيقات واقعية

تعتمد كبرى شركات التكنولوجيا والهيئات الحكومية الكبرى على الخصوصية التفاضلية لتحسين تجربة المستخدم مع تأمين المعلومات الشخصية.

  • تحليل استخدام المستخدم من Apple: تستخدم Apple الخصوصية التفاضلية المحلية لـ جمع الرؤى من مستخدمي iPhone و Mac. وهذا يسمح لهم بتحديد الرموز التعبيرية الشائعة، واكتشاف الاستخدام العالي للذاكرة في التطبيقات، وتحسين اقتراحات QuickType دون الوصول إلى بيانات المستخدم الأولية أو تتبع السلوك الفردي.
  • مكتب الإحصاء الأمريكي: اعتمد اعتمد التعداد السكاني الأمريكي لعام 2020 الخصوصية التفاضلية لنشر الإحصاءات الديموغرافية. وهذا يضمن أن جداول البيانات المنشورة لا يمكن هندستها عكسيًا من أجل تحديد أسر معيشية معينة، مما يحقق التوازن بين حاجة الجمهور إلى البيانات الديموغرافية والمتطلبات القانونية لحماية سرية المواطنين.

الخصوصية التفاضلية مقابل المصطلحات ذات الصلة

من المهم التمييز بين الخصوصية التفاضلية وتقنيات الحفاظ على الخصوصية الأخرى الموجودة في دورة حياة MLOps الحديثة.

  • الخصوصية التفاضلية مقابل خصوصية البيانات خصوصية البيانات هو النظام الواسع الذي يشمل القوانين، والحقوق، وأفضل الممارسات للتعامل مع البيانات الشخصية (على سبيل المثال، الامتثال ل اللائحة العامة لحماية البيانات). الخصوصية التفاضلية هي تعريف رياضي محدد و أداة تقنية تُستخدم لتحقيق أهداف خصوصية البيانات.
  • الخصوصية التفاضلية مقابل التعلم الموحد: التعلم الاتحادي هو تدريب لا مركزي حيث يتم تدريب النماذج على الأجهزة المحلية (الحوسبة المتطورة) دون تحميل البيانات الأولية إلى خادم. بينما يحتفظ التعلم الموحد بالبيانات محليًا، إلا أنه لا يضمن أن تحديثات النموذج نفسها لن تسرب المعلومات. ولذلك، غالبًا ما يتم الجمع بين الخصوصية التفاضلية والتعلّم المتحد لتأمين تحديثات النموذج.
  • الخصوصية التفاضلية مقابل إخفاء الهوية: يتضمن إخفاء الهوية التقليدي تجريد معلومات التعريف الشخصية (PII) مثل الأسماء أو أرقام الضمان الاجتماعي أو أرقام الضمان الاجتماعي. ومع ذلك، يمكن في كثير من الأحيان "إعادة تحديد هوية" مجموعات البيانات مجهولة المصدر من خلال الإحالة المرجعية مع بيانات عامة أخرى. توفر الخصوصية التفاضلية ضمانًا يمكن إثباته رياضيًا ضد هجمات إعادة التعريف هذه الهجمات.

الأهمية في الرؤية الحاسوبية

للمستخدمين الذين يستفيدون من النماذج المتقدمة مثل YOLO11 للمهام مثل اكتشاف الأجسام أو المراقبة, توفر الخصوصية التفاضلية مسارًا للتدريب على موجزات الفيديو في العالم الحقيقي دون الكشف عن هويات الأشخاص الذين تم التقاطهم في اللقطات. من خلال دمج هذه التقنيات، يمكن للمطورين بناء أنظمة ذكاء اصطناعي قوية ومتوافقة وموثوق بها من قبل الجمهور.

لاستكشاف المزيد حول أدوات الخصوصية، يقدم مشروع OpenDP مجموعة مفتوحة المصدر من من الخوارزميات، وتوفر Google خصوصيةTensorFlow ) للمطورين للمطوّرين الذين يتطلعون إلى دمج هذه المفاهيم في سير عملهم.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن