Glossar

Natürliche Sprachverarbeitung (NLP)

Entdecken Sie Konzepte, Techniken und Anwendungen der natürlichen Sprachverarbeitung (NLP) wie Chatbots, Stimmungsanalyse und maschinelle Übersetzung.

Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein dynamischer Bereich innerhalb der künstlichen Intelligenz (AI) und des maschinellen Lernens (ML), der es Computern ermöglichen soll, menschliche Sprache - sowohl Text als auch Sprache - zu verstehen, zu verarbeiten, zu interpretieren und zu erzeugen. NLP kombiniert Prinzipien der Computerlinguistik mit statistischer Modellierung, maschinellem Lernen und Deep Learning-Modellen, um die Kluft zwischen menschlicher Kommunikation und Computerverständnis zu überbrücken. Das ultimative Ziel ist es, Maschinen die Möglichkeit zu geben, auf sinnvolle und nützliche Weise mit Sprache zu interagieren und Aufgaben zu automatisieren, die traditionell menschliche linguistische Fähigkeiten erfordern.

Schlüsselkonzepte im NLP

NLP umfasst mehrere Kernaufgaben, die die Komplexität der Sprache in Komponenten zerlegen, die von Maschinen analysiert und verarbeitet werden können:

  • Tokenisierung: Der erste Schritt der Zerlegung des Textes in kleinere Einheiten wie Wörter oder Unterwörter (Token).
  • Erkennung von benannten Entitäten (NER): Identifizierung und Kategorisierung von Schlüsselentitäten in Texten, wie Namen von Personen, Organisationen, Orten, Daten und Geldwerten.
  • Stimmungsanalyse: Bestimmung der emotionalen Stimmung oder der subjektiven Meinung, die in einem Text zum Ausdruck kommt (z. B. positiv, negativ, neutral).
  • Maschinelle Übersetzung: Die automatische Übersetzung von Text oder Sprache von einer Sprache in eine andere, wie sie in Tools wie Google Translate zu finden ist.
  • Sprachmodellierung: Erstellung von Modellen zur Vorhersage der Wahrscheinlichkeit einer Wortfolge, die für Aufgaben wie Texterstellung und Spracherkennung von entscheidender Bedeutung sind.

Wie NLP funktioniert

NLP-Systeme verwenden in der Regel einen Pipeline-Ansatz. Die rohen Textdaten werden zunächst einer Datenvorverarbeitung unterzogen, die Aufgaben wie das Bereinigen des Textes (Entfernen irrelevanter Zeichen oder Formatierung), Tokenisierung und manchmal Normalisierung (Umwandlung von Wörtern in eine Basisform) umfasst. Nach der Vorverarbeitung werden die für die Aufgabe relevanten Merkmale extrahiert. Diese Merkmale werden dann in ML- oder DL-Modelle zur Analyse oder Generierung eingegeben.

Modernes NLP stützt sich in hohem Maße auf neuronale Netze (NNs), insbesondere auf ausgefeilte Architekturen wie rekurrente neuronale Netze (RNNs) für sequentielle Daten, und in jüngerer Zeit auf Transformatoren. Transformers, die sich durch ihre leistungsstarken Aufmerksamkeitsmechanismen auszeichnen, haben sich als außerordentlich effektiv bei der Erfassung weitreichender Abhängigkeiten und des Kontexts innerhalb der Sprache erwiesen. Diese Architektur liegt vielen modernen Modellen zugrunde, einschließlich Varianten von BERT und GPT-Modellen wie GPT-4. Auf Forschungsplattformen wie der ACL-Anthologie finden sich zahlreiche Beiträge, die diese Fortschritte im Detail beschreiben.

Anwendungen von NLP

NLP ermöglicht eine Vielzahl von Anwendungen, die die Industrie verändern und die täglichen Interaktionen verbessern. Hier sind zwei prominente Beispiele:

  1. Virtuelle Assistenten und Chatbots: Systeme wie Apples Siri und Amazon Alexa sowie zahlreiche Chatbots für den Kundendienst nutzen NLP in großem Umfang. Sie verwenden Spracherkennung, um gesprochene Wörter in Text umzuwandeln, Natural Language Understanding (NLU), um die Absicht des Benutzers zu erfassen, und manchmal auch Textgenerierung, um Antworten zu formulieren.
  2. E-Mail-Spam-Filterung: NLP-Techniken analysieren E-Mail-Inhalte, um Muster zu erkennen, die für Spam oder Phishing-Versuche charakteristisch sind. Algorithmen klassifizieren E-Mails auf der Grundlage von Schlüsselwörtern, der Reputation des Absenders und der sprachlichen Struktur und helfen so, den Posteingang sauber und sicher zu halten.

Weitere gängige Anwendungen sind Textzusammenfassungen zur Verdichtung langer Dokumente, semantische Suchmaschinen, die die Bedeutung von Suchanfragen über den einfachen Abgleich von Schlüsselwörtern hinaus verstehen, und Grammatik-/Stilkorrektur-Tools wie Grammarly. Viele innovative KI-Anwendungsfälle stützen sich stark auf NLP.

NLP vs. Verwandte Konzepte

NLP ist zwar verwandt, unterscheidet sich aber von einigen ähnlichen Begriffen:

  • Natürliches Sprachverstehen (NLU): NLU ist ein Teilbereich des NLP, der sich speziell auf den Aspekt des Verstehens konzentriert, d. h. auf das Extrahieren von Bedeutung, Absicht und Kontext aus der Sprache. NLP ist breiter angelegt und umfasst auch Aufgaben wie Texterstellung und Sprachsynthese.
  • Textgenerierung: Dies ist eine spezifische Fähigkeit oder Aufgabe innerhalb des NLP, die sich auf die Produktion von menschenähnlichem Text konzentriert. Sie ist zwar ein zentraler Bestandteil vieler NLP-Anwendungen (wie Chatbots oder Übersetzungen), deckt aber nicht die Verständnis- oder Analyseaspekte von NLP ab.
  • Computer Vision (CV): CV befasst sich mit der Interpretation und dem Verständnis von Informationen aus visuellen Eingaben wie Bildern und Videos und konzentriert sich auf Aufgaben wie Objekterkennung oder Bildsegmentierung. NLP hingegen konzentriert sich auf Sprachdaten. Die beiden Bereiche überschneiden sich jedoch zunehmend in multimodalen Modellen, die sowohl Text als auch Bilder verarbeiten und Anwendungen wie die automatische Bilduntertitelung ermöglichen. Sie können mehr über die Verbindung von NLP und CV lesen. Ultralytics ist auf CV spezialisiert und bietet Modelle wie Ultralytics YOLO11 für Aufgaben, die hohe Genauigkeit und Geschwindigkeit erfordern.

Werkzeuge und Plattformen

Die Entwicklung und Bereitstellung von NLP-Anwendungen erfordert häufig den Einsatz von Spezialbibliotheken und -plattformen:

  • Bibliotheken: Open-Source-Bibliotheken wie spaCy und NLTK bieten Werkzeuge für gängige NLP-Aufgaben wie Tokenisierung, Parsing und Entity-Erkennung.
  • Plattformen: Hugging Face bietet ein umfangreiches Repository an vortrainierten Modellen (insbesondere Transformers), Datensätzen und Tools, die die Entwicklung erheblich beschleunigen. Für die Verwaltung des gesamten Lebenszyklus von ML-Modellen, einschließlich solcher, die in NLP- oder kombinierten CV-NLP-Pipelines verwendet werden, bieten Plattformen wie Ultralytics HUB robuste MLOps-Funktionen, die Training, Bereitstellung und Überwachung rationalisieren. In der Ultralytics-Dokumentation finden Sie weitere Ressourcen zur Modellentwicklung und -bereitstellung.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert