اكتشف التكنولوجيا والتطبيقات والمخاوف الأخلاقية المتعلقة بالتزييف العميق، من الترفيه إلى المعلومات المضللة. تعرّف على حلول الكشف والذكاء الاصطناعي.
تُعرف الوسائط الاصطناعية التي يتم إنشاؤها باستخدام تقنيات التعلّم العميق باسم التزييف العميق. والمصطلح عبارة عن تركيب من "التعلّم العميق" و"التزييف"، وهو يشير إلى مقاطع الفيديو أو التسجيلات الصوتية التي يتم فيها استبدال صورة الشخص وصوته بشخص آخر، وغالباً ما يكون ذلك بدرجة عالية من الواقعية. يتم تحقيق ذلك من خلال تدريب شبكة عصبية على كميات كبيرة من الصور ومقاطع الفيديو الموجودة للأفراد المستهدفين لتعلم وتكرار تعابير وجههم وسلوكياتهم وأنماط كلامهم.
يعتمد توليد التزييف العميق بشكل أساسي على مفهومين رئيسيين للتعلّم الآلي: شبكات الخصومة التوليدية (GANs) والشبكات العدائية التوليدية (GANs) والمُشفِّرات التلقائية.
على الرغم من ارتباطها في كثير من الأحيان بالاستخدامات الخبيثة، إلا أن تقنية التزييف العميق لها العديد من التطبيقات المشروعة والمبتكرة.
إن إمكانية إساءة الاستخدام تجعل من التزييف العميق مصدر قلق أخلاقي كبير. يمكن استخدام هذه التكنولوجيا لإنشاء أخبار مزيفة مقنعة، ونشر معلومات سياسية مضللة، وارتكاب عمليات احتيال، وإنشاء محتوى صريح غير متوافق عليه. تسلط هذه المخاطر الضوء على أهمية وضع مبادئ قوية لأخلاقيات الذكاء الاصطناعي والتطوير المسؤول للذكاء الاصطناعي.
واستجابةً لذلك، ظهر مجال الكشف عن التزييف العميق، مما أدى إلى سباق تسلح تكنولوجي بين أساليب التوليد والكشف. يعمل الباحثون والشركات على تطوير نماذج ذكاء اصطناعي لاكتشاف التحف البصرية الدقيقة والتناقضات التي غالباً ما تتركها خوارزميات التزييف العميق. وتركز مبادرات مثل تحدي الكشف عن التزييف العميق ومنظمات مثل الشراكة حول الذكاء الاصطناعي على تطوير قدرات الكشف هذه للتخفيف من التأثير السلبي للتكنولوجيا. هناك أيضًا أدوات متاحة للجمهور، مثل أداة Intel FakeCatcher، المصممة لتحديد المحتوى الذي تم إنشاؤه. أصبح تعلُّم كيفية معرفة ما إذا كانت الصورة من إنشاء الذكاء الاصطناعي مهارة أساسية في المشهد الرقمي الحديث.