Explore BERT, the revolutionary bidirectional NLP model. Learn how it uses Transformer architecture for sentiment analysis, search, and [multimodal AI](https://www.ultralytics.com/glossary/multimodal-ai) workflows.
BERT (تمثيلات التشفير ثنائية الاتجاه من المحولات) هي بنية تعلم عميق رائدة صممها باحثون في Google الآلات Google فهم الفروق الدقيقة في اللغة البشرية بشكل أفضل. تم طرح BERT في عام 2018، وأحدثت ثورة في مجال معالجة اللغة الطبيعية (NLP) من خلال إدخال طريقة تدريب ثنائية الاتجاه. على عكس النماذج السابقة التي تقرأ النص بالتسلسل من اليسار إلى اليمين أو من اليمين إلى اليسار، يحلل BERT سياق الكلمة من خلال النظر إلى الكلمات التي تسبقها وتليها في وقت واحد. تسمح هذه الطريقة للنموذج بفهم المعاني الدقيقة والتعابير والمتجانسات (الكلمات ذات المعاني المتعددة ) بشكل أكثر فعالية من النماذج السابقة.
يعتمد BERT في جوهره على بنية Transformer، وتحديداً آلية التشفير . يتم تحقيق الطبيعة "ثنائية الاتجاه" من خلال تقنية تدريب تسمى Masked Language Modeling (MLM). أثناء التدريب المسبق، يتم إخفاء (إخفاء) حوالي 15٪ من الكلمات في الجملة بشكل عشوائي، ويحاول النموذج توقع الكلمات المفقودة بناءً على السياق المحيط. هذا يجبر النموذج على تعلم تمثيلات ثنائية الاتجاه عميقة.
بالإضافة إلى ذلك، يستخدم BERT تقنية توقع الجملة التالية (NSP) لفهم العلاقة بين الجمل. في هذه المهمة، يتم إعطاء النموذج أزواج من الجمل ويجب عليه تحديد ما إذا كانت الجملة الثانية تتبع الجملة الأولى منطقياً. هذه القدرة ضرورية للمهام التي تتطلب فهم الخطاب، مثل الإجابة على الأسئلة وتلخيص النصوص.
تعدد استخدامات BERT جعله مكونًا قياسيًا في العديد من أنظمة الذكاء الاصطناعي الحديثة. فيما يلي مثالان ملموسان على تطبيقه :
من المفيد التمييز بين BERT والبنى البارزة الأخرى لفهم المكانة الخاصة بها.
لاستخدام BERT، يجب تحويل النص الخام إلى رموز رقمية. يستخدم النموذج مفردات محددة (مثل WordPiece) لتقسيم الكلمات. في حين أن BERT هو نموذج نصي، فإن مفاهيم المعالجة المسبقة المماثلة تنطبق في الرؤية الحاسوبية حيث يتم تقسيم الصور إلى أجزاء.
يوضح Python التالي Python كيفية استخدام transformers مكتبة لترميز جملة من أجل
معالجة BERT. لاحظ أنه بينما Ultralytics على الرؤية، فإن فهم الترميز هو المفتاح لـ
الذكاء الاصطناعي متعدد الوسائط سير العمل.
from transformers import BertTokenizer
# Initialize the tokenizer with the pre-trained 'bert-base-uncased' vocabulary
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
# Tokenize a sample sentence relevant to AI
text = "Ultralytics simplifies computer vision."
# Convert text to input IDs (numerical representations)
encoded_input = tokenizer(text, return_tensors="pt")
# Display the resulting token IDs
print(f"Token IDs: {encoded_input['input_ids']}")
شكل إدخال BERT "ImageNet " بالنسبة إلى NLP، مما أثبت أن التعلم النقلي— التدريب المسبق لنموذج على مجموعة بيانات ضخمة ثم ضبطه لمهمة محددة — كان فعالاً للغاية بالنسبة للنصوص. وقد قلل ذلك من الحاجة إلى بنى خاصة بالمهام ومجموعات بيانات كبيرة مصنفة لكل مشكلة جديدة.
اليوم، تواصل أشكال مختلفة من BERT، مثل RoBERTa و DistilBERT، تعزيز الكفاءة في تطبيقات الذكاء الاصطناعي المتطورة. غالبًا ما يدمج المطورون الذين يسعون إلى بناء حلول شاملة للذكاء الاصطناعي هذه النماذج اللغوية جنبًا إلى جنب مع أدوات الرؤية المتاحة على Ultralytics لإنشاء أنظمة يمكنها رؤية وفهم العالم.