Erfahren Sie, wie kleine Sprachmodelle (SLMs) eine effiziente, datenschutzkonforme und kostengünstige KI auf Edge-Geräten ermöglichen. Erfahren Sie, wie Sie SLMs mit Ultralytics für Edge-KI kombinieren können.
Kleine Sprachmodelle (SLMs) sind optimierte KI-Modelle, die darauf ausgelegt sind, menschliche Sprache effizient zu verstehen und zu generieren. Im Gegensatz zu ihren größeren Pendants umfassen SLMs in der Regel zwischen einigen Millionen und etwa 15 Milliarden Parameter, wodurch sie lokal auf Edge-Geräten ausgeführt werden können, anstatt eine umfangreiche Cloud-Computing-Infrastruktur zu erfordern. Durch den lokalen Betrieb bieten diese Modelle eine schnellere Verarbeitung, einen besseren Datenschutz für die Nutzer und deutlich geringere Bereitstellungskosten.
Um die KI-Landschaft besser zu verstehen, ist es hilfreich, SLMs von verwandten Technologien zu unterscheiden:
Kleine Sprachmodelle verändern Branchen rasant, indem sie fortschrittliche Intelligenz direkt in die Unterhaltungselektronik und Unternehmensnetzwerke integrieren.
Jüngste Durchbrüche in den Jahren 2024 und 2025 haben gezeigt, dass hochwertige Trainingsdaten eine Leistung erzielen können, die es mit den riesigen Modellen der vergangenen Jahre aufnehmen kann. Innovationen wie Google Gemma und Metas Llama 3 8B verdeutlichen, wie leistungsfähig kleinere Architekturen mittlerweile geworden sind.
Bei der Entwicklung umfassender KI-Lösungen verwenden Entwickler häufig Python , um das sprachliche Schlussfolgern eines SLM mit der visuellen Genauigkeit der Tools der Ultralytics zu verbinden. So könnte beispielsweise ein gerätebasiertes SLM einen gesprochenen Befehl verarbeiten, um eine Computer-Vision-Aufgabe zu starten. Der folgende kurze Codeausschnitt zeigt, wie man ein leichtgewichtiges Modell wie Ultralytics für die Objektverfolgung lädt – eine Aufgabe, die sich gut für dieselbe Edge-Hardware eignet, auf der ein SLM läuft:
from ultralytics import YOLO
# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")
# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")
Durch die Fokussierung auf die lokale Ausführung senken Ingenieure den Bandbreitenbedarf und die Betriebskosten erheblich. Während die Branche die Edge-AI-Technologien weiter vorantreibt, wird die leistungsstarke Kombination aus optimierter Computer Vision und effizienten kleinen Sprachmodellen die nächste Generation intelligenter, autonomer Systeme vorantreiben.
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens