Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

BERT (تمثيلات المشفر ثنائي الاتجاه من المحولات)

اكتشف BERT، نموذج Google الثوري في مجال البرمجة اللغوية العصبية. تعرّف على كيفية مساهمة فهم السياق ثنائي الاتجاه في تحويل مهام الذكاء الاصطناعي مثل البحث وروبوتات الدردشة.

للمستخدمين المطلعين على مفاهيم التعلم الآلي الأساسية, يمثل BERT (تمثيلات التشفير ثنائية الاتجاه من المحولات) علامة فارقة في تطور معالجة اللغة الطبيعية (NLP). تم تطويره من قبل باحثوGoogle في عام 2018، حوّل هذا النموذج النموذج النموذج من معالجة النص بالتسلسل (من اليسار إلى اليمين أو من اليمين إلى اليسار) إلى تحليل تسلسلات كاملة في وقت واحد. من خلال الاستفادة من نهج ثنائي الاتجاه، يحقق نموذج BERT فهمًا أعمق وأكثر فهمًا أعمق وأدق للسياق اللغوي، مما يجعله نموذجًا أساسيًا حاسمًا نموذجًا أساسيًا لتطبيقات الذكاء الاصطناعي الحديثة.

هيكلية BERT

في جوهرها، تستخدم BERT آلية التشفير الخاصة بـ بنية المحول. على عكس سابقاتها, التي تعتمد غالبًا على الشبكات العصبية المتكررة (RNNs)، يستخدم BERT توظف الانتباه الذاتي لتقييم أهمية الكلمات المختلفة في الجملة بالنسبة لبعضها البعض. وهذا يسمح للنموذج بالتقاط التبعيات المعقدة بغض النظر عن بغض النظر عن المسافة بين الكلمات. ولتحقيق هذه القدرات، يتم تدريب BERT مسبقًا على مجموعات نصية ضخمة باستخدام استراتيجيتين مبتكرتين غير خاضعة للإشراف استراتيجيتين مبتكرتين غير خاضعتين للإشراف:

  • نمذجة اللغة المقنعة (MLM): في هذه العملية، يتم إخفاء أو "إخفاء" الكلمات العشوائية في الجملة، ويحاول النموذج التنبؤ بالكلمة الكلمة الأصلية بناءً على السياق المحيط بها. هذا يجبر BERT على فهم العلاقة ثنائية الاتجاه بين الكلمات.
  • التنبؤ بالجملة التالية (NSP): تقوم هذه المهمة بتدريب النموذج على التنبؤ بما إذا كانت الجملة الثانية تتبع الأولى منطقيًا أم لا. يساعد إتقان هذه المهمة BERT على فهم بنية الفقرة وترابطها، وهو أمر ضروري لمهام مثل الإجابة عن الأسئلة.

وبمجرد التدريب المسبق، يمكن تكييف نموذج BERT لمهام نهائية محددة من خلال الضبط الدقيق، حيث يتم تدريب النموذج بشكل أكبر على مجموعة بيانات أصغر حجمًا ومحددة المهام لتحسين الأداء.

مقارنة BERT بالنماذج الأخرى

من المهم التمييز بين BERT ونماذج الذكاء الاصطناعي البارزة الأخرى الذكاء الاصطناعي البارزة الأخرى:

تطبيقات واقعية

وقد أدت قدرة تقنية BERT على استيعاب السياق إلى اعتمادها على نطاق واسع في مختلف الصناعات:

  • محركات البحث المحسّنة: دمج محرك بحثGoogle Search BERT لتفسير استعلامات المستخدم المعقدة بشكل أفضل. على سبيل المثال، في الاستعلام "كتب تدريب الرياضيات للكبار" يساعد BERT المحرك على فهم القصد المحدد، مما يضمن تركيز النتائج على مصادر على مستوى الكبار بدلاً من الكتب المدرسية العامة.
  • تحليل المشاعر المتقدم: تستخدم الشركات تحليل مشاعر العملاء تحليل المشاعر لمعالجة ملاحظات العملاء ملاحظات العملاء. من خلال فهم الفروق الدقيقة مثل السخرية أو السلبيات المزدوجة، يمكن لهذه النماذج classify المراجعات بدقة على أنها إيجابية أو سلبية، مما يوفر رؤى قابلة للتنفيذ من أجل تحسين تجربة العملاء.

تنفيذ مشفر المحولات

بينما تُحمَّل نماذج BERT عادةً بأوزان مُدرَّبة مسبقًا، فإن البنية الأساسية مبنية على مشفر المحولات. وفيما يلي PyTorch التالي كيفية تهيئة طبقة تشفير أساسية، والتي تُعد بمثابة اللبنة الأساسية ل BERT.

import torch
import torch.nn as nn

# Initialize a Transformer Encoder Layer similar to BERT's building blocks
# d_model: number of expected features in the input
# nhead: number of heads in the multiheadattention models
encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)

# Stack multiple layers to create the full Encoder
transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=6)

# Create a dummy input tensor: (sequence_length, batch_size, feature_dim)
src = torch.rand(10, 32, 512)

# Forward pass through the encoder
output = transformer_encoder(src)

print(f"Input shape: {src.shape}")
print(f"Output shape: {output.shape}")
# Output maintains the same shape, containing context-aware representations

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن