اكتشف كيف ينشئ الذكاء الاصطناعي التوليدي محتوى أصليًا مثل النصوص والصور والصوت، مما يغير الصناعات بتطبيقات مبتكرة.
يمثل الذكاء الاصطناعي التوليدي مجموعة فرعية تحويلية من الذكاء الاصطناعي (AI) تركز على إنشاء محتوى جديد وأصلي بدلاً من مجرد تحليل البيانات الموجودة. في حين أن نماذج التعلم الآلي (ML) التقليدية غالبًا ما يتم تصميمها للتصنيف أو التنبؤ - مثل تحديد سيارة في صورة - يتم تدريب النماذج التوليدية على فهم الأنماط الأساسية وتوزيعات الاحتمالات لمجموعة البيانات لإنتاج مخرجات جديدة. يمكن لهذه الأنظمة توليف مجموعة واسعة من أنواع المحتوى، بما في ذلك النصوص والصور الواقعية والصوت المعقد وحتى أكواد الكمبيوتر الوظيفية، مما يعكس بشكل فعال خصائص بيانات التدريب الخاصة بها مع إنتاج تنويعات فريدة.
تعمل الذكاء الاصطناعي التوليدي من خلال الاستفادة من مجموعات البيانات الضخمة لتعلم البنية الإحصائية للمعلومات. من خلال التعلم غير الخاضع للإشراف أو التقنيات شبه الخاضعة للإشراف ، يحدد النموذج العلاقات المعقدة بين نقاط البيانات. وهذا يسمح له بتوليد عينات جديدة مماثلة إحصائياً للمدخلات ولكنها ليست نسخاً مطابقة. هناك العديد من بنى التعلم العميق (DL) المتقدمة التي تدفع هذا الابتكار:
تتجاوز فائدة الذكاء الاصطناعي التوليدي حدود التجديد، حيث تعزز الكفاءة والابتكار في مختلف الصناعات.
من الضروري التمييز بين الذكاء الاصطناعي التوليدي والذكاء الاصطناعي التمييزي، خاصة عند تصميم خط أنابيب التعلم الآلي.
على الرغم من أن نماذج مثل YOLO26 تمييزية، إلا أنها تتفاعل بشكل متكرر مع الأنظمة التوليدية. يتضمن سير العمل الشائع استخدام نموذج توليدي لإنشاء صور تدريب اصطناعية لتحسين دقة الكاشف التمييزي .
يوضح المثال التالي كيفية استخدام ultralytics حزمة لتشغيل الاستدلال على صورة. في
سير عمل هجين، يمكن أن تكون هذه الصورة عينة اصطناعية تم إنشاؤها بواسطة نموذج ذكاء اصطناعي لاختبار قدرات الكشف.
from ultralytics import YOLO
# Load the YOLO26 model (Latest stable Ultralytics model)
model = YOLO("yolo26n.pt")
# Run inference on an image (e.g., a synthetic image generated by a diffusion model)
results = model("https://ultralytics.com/images/bus.jpg")
# Display the results to verify if the model detects objects correctly
results[0].show()
يجلب الاعتماد السريع على الذكاء الاصطناعي التوليدي تحديات كبيرة. تحدث الهلوسة في نماذج اللغة الكبيرة (LLM) عندما تولد النماذج معلومات معقولة ولكنها غير صحيحة من الناحية الواقعية. بالإضافة إلى ذلك، يمكن أن تؤدي المشكلات المتعلقة بالتحيز الخوارزمي الموروث من بيانات الويب غير المنظمة إلى نتائج منحرفة. كما أن إمكانية إنشاء تقنيات التزييف العميق تثير مخاوف أمنية. ومعالجة هذه المخاوف تتطلب أطر عمل أخلاقية قوية للذكاء الاصطناعي ومراقبة يقظة للنماذج لضمان نشر آمن ومسؤول . وتقوم منظمات مثل معهد ستانفورد للذكاء الاصطناعي المتمركز حول الإنسان (HAI) بالبحث بنشاط عن سياسات للتخفيف من هذه المخاطر.