Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

BERT (Bidirectional Encoder Representations from Transformers)

Explore BERT, the revolutionary bidirectional NLP model. Learn how it uses Transformer architecture for sentiment analysis, search, and [multimodal AI](https://www.ultralytics.com/glossary/multimodal-ai) workflows.

BERT (Bidirectional Encoder Representations from Transformers) ist eine bahnbrechende Deep-Learning-Architektur, die von Forschern bei Google entwickelt wurde, Google Maschinen dabei zu helfen, die Nuancen der menschlichen Sprache besser zu verstehen. BERT wurde 2018 eingeführt und revolutionierte den Bereich der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) durch die Einführung einer bidirektionalen Trainingsmethode. Im Gegensatz zu früheren Modellen, die Text sequenziell von links nach rechts oder von rechts nach links lesen, analysiert BERT den Kontext eines Wortes, indem es gleichzeitig die Wörter vor und nach diesem Wort betrachtet . Durch diesen Ansatz kann das Modell subtile Bedeutungen, Redewendungen und Homonyme (Wörter mit mehreren Bedeutungen) viel effektiver erfassen als seine Vorgänger.

So funktioniert BERT

Im Kern basiert BERT auf der Transformer -Architektur, insbesondere auf dem Encoder-Mechanismus . Die „bidirektionale” Natur wird durch eine Trainingstechnik namens Masked Language Modeling (MLM) erreicht. Während des Vortrainings werden etwa 15 % der Wörter in einem Satz zufällig maskiert (verborgen), und das Modell versucht, die fehlenden Wörter anhand des umgebenden Kontexts vorherzusagen. Dadurch wird das Modell gezwungen, tiefe bidirektionale Darstellungen zu lernen.

Darüber hinaus nutzt BERT die Next Sentence Prediction (NSP), um die Beziehung zwischen Sätzen zu verstehen. Bei dieser Aufgabe erhält das Modell Satzpaare und muss bestimmen, ob der zweite Satz logisch auf den ersten folgt. Diese Fähigkeit ist entscheidend für Aufgaben, die ein Verständnis des Diskurses erfordern, wie beispielsweise die Beantwortung von Fragen und die Zusammenfassung von Texten.

Anwendungsfälle in der Praxis

Die Vielseitigkeit von BERT hat es zu einer Standardkomponente in vielen modernen KI-Systemen gemacht. Hier sind zwei konkrete Beispiele für seine Anwendung:

  1. Suchmaschinenoptimierung: Google BERT in seine Suchalgorithmen Google , um komplexe Suchanfragen besser interpretieren zu können. Bei der Suchanfrage „2019 brasilianischer Reisender in die USA benötigt Visum“ ist beispielsweise das Wort „in“ entscheidend. Herkömmliche Modelle behandelten „to“ oft als Stoppwort (häufig vorkommende Wörter, die herausgefiltert werden ) und übersahen dabei die Richtungsbeziehung. BERT versteht, dass es sich bei dem Nutzer um einen Brasilianer handelt, der in die USA reist, und nicht umgekehrt, und liefert hochrelevante Suchergebnisse.
  2. Sentimentanalyse in Kundenfeedback: Unternehmen nutzen BERT, um Tausende von Kundenbewertungen oder Support-Tickets automatisch zu analysieren. Da BERT den Kontext versteht, kann es zwischen „Dieser Staubsauger saugt“ (negative Stimmung) und „Dieser Staubsauger saugt den ganzen Schmutz auf“ (positive Stimmung) unterscheiden. Diese präzise Sentimentanalyse hilft Unternehmen dabei, Support-Anfragen zu triagieren und track genau track .

Vergleich mit verwandten Konzepten

Es ist hilfreich, BERT von anderen bekannten Architekturen zu unterscheiden, um seine spezifische Nische zu verstehen.

  • BERT vs. GPT (Generative Pre-trained Transformer): Beide nutzen zwar die Transformer-Architektur, verfolgen jedoch unterschiedliche Ziele. BERT verwendet den Encoder-Stack und ist für Verständnis- und Unterscheidungsaufgaben (z. B. Klassifizierung, Entitätsextraktion) optimiert. Im Gegensatz dazu verwendet GPT den Decoder-Stack und ist für die Textgenerierung ausgelegt, wobei das nächste Wort in einer Sequenz vorhergesagt wird, um Essays oder Code zu schreiben.
  • BERT vs. YOLO26: Diese Modelle arbeiten in unterschiedlichen Bereichen. BERT verarbeitet sequenzielle Textdaten für linguistische Aufgaben. YOLO26 ist ein hochmodernes Bildverarbeitungsmodell, das Pixelraster für die Echtzeit-Objekterkennung verarbeitet. Moderne multimodale Systeme kombinieren diese jedoch häufig; beispielsweise könnte ein YOLO detect in einem Bild detect und ein BERT-basiertes Modell könnte dann Fragen zu deren Beziehungen beantworten.

Implementierungsbeispiel: Tokenisierung

Um BERT verwenden zu können, muss der Rohtext in numerische Token umgewandelt werden. Das Modell verwendet ein bestimmtes Vokabular (wie WordPiece) , um Wörter zu zerlegen. BERT ist zwar ein Textmodell, aber ähnliche Vorverarbeitungskonzepte gelten auch in der Bildverarbeitung, wo Bilder in Patches zerlegt werden.

Der folgende Python zeigt, wie man die transformers Bibliothek zum Tokenisieren eines Satzes für die BERT-Verarbeitung. Beachten Sie, dass Ultralytics zwar auf das Sehen Ultralytics , das Verständnis der Tokenisierung jedoch entscheidend für multimodale KI Arbeitsabläufe.

from transformers import BertTokenizer

# Initialize the tokenizer with the pre-trained 'bert-base-uncased' vocabulary
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

# Tokenize a sample sentence relevant to AI
text = "Ultralytics simplifies computer vision."

# Convert text to input IDs (numerical representations)
encoded_input = tokenizer(text, return_tensors="pt")

# Display the resulting token IDs
print(f"Token IDs: {encoded_input['input_ids']}")

Bedeutung in der KI-Landschaft

Die Einführung von BERT markierte denImageNet für NLP und bewies, dass Transferlernen– das Vorabtrainieren eines Modells auf einem massiven Datensatz und dessen anschließende Feinabstimmung für eine bestimmte Aufgabe – für Text äußerst effektiv war. Dadurch wurde der Bedarf an aufgabenspezifischen Architekturen und großen beschrifteten Datensätzen für jedes neue Problem reduziert.

Heute sorgen Varianten von BERT, wie RoBERTa und DistilBERT, weiterhin für Effizienz in Edge-KI-Anwendungen. Entwickler, die umfassende KI-Lösungen erstellen möchten, integrieren diese Sprachmodelle häufig zusammen mit den auf der Ultralytics verfügbaren Bildverarbeitungswerkzeugen, um Systeme zu schaffen, die die Welt sowohl sehen als auch verstehen können .

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten