Lerne die Grundlagen des Model Serving - setze KI-Modelle für Echtzeitvorhersagen, Skalierbarkeit und nahtlose Integration in Anwendungen ein.
Sobald ein Machine Learning (ML) -Modell trainiert und validiert ist, besteht der nächste wichtige Schritt darin, es für die Erstellung von Vorhersagen für neue Daten verfügbar zu machen. Dieser Prozess wird als Model Serving bezeichnet. Dabei wird ein trainiertes Modell in einer Produktionsumgebung eingesetzt, in der Regel hinter einem API-Endpunkt (Application Programming Interface), über den Anwendungen oder andere Systeme Vorhersagen in Echtzeit abrufen können. Model Serving fungiert als Brücke zwischen dem entwickelten Modell und seiner praktischen Anwendung und verwandelt es von einer statischen Datei in einen aktiven, wertschöpfenden Dienst innerhalb des allgemeinen Lebenszyklus des maschinellen Lernens.
Der Modellservice ist für die Operationalisierung von ML-Modellen von grundlegender Bedeutung. Ohne sie können selbst die genauesten Modelle, wie die modernsten Ultralytics YOLO Objektdetektoren, bleiben in der Entwicklungsumgebung isoliert und können sich nicht auf die realen Prozesse auswirken. Ein effektives Model Serving stellt sicher, dass die im Training entwickelten Erkenntnisse und Automatisierungsmöglichkeiten zugänglich und nutzbar sind. Es ermöglicht Inferenzen in Echtzeit, so dass Anwendungen dynamisch auf neue Daten reagieren können, was für Aufgaben von der Objekterkennung in Videos bis hin zur Verarbeitung natürlicher Sprache (NLP) in Chatbots entscheidend ist. Letztlich ist das Model Serving entscheidend für den Return on Investment (ROI) von KI-Initiativen.
Obwohl der Begriff "Model Serving" oft synonym verwendet wird, ist er technisch gesehen eine spezifische Komponente innerhalb des umfassenderen Prozesses " Model Deployment". Die Modellbereitstellung umfasst alle Schritte, die notwendig sind, um ein trainiertes Modell in einer produktiven Umgebung einsatzfähig zu machen, einschließlich Paketierung, Einrichtung der Infrastruktur, Integration und Überwachung. Model Serving konzentriert sich speziell auf die Infrastruktur- und Softwareschicht, die das Modell beherbergt und eingehende Vorhersageanfragen bearbeitet, indem sie die Funktionen des Modells als Service zur Verfügung stellt, oft über Netzwerkprotokolle wie REST oder gRPC. Weitere Informationen findest du in unserem Leitfaden zu den Optionen für die Modellbereitstellung.
Model Serving ermöglicht unzählige KI-gesteuerte Funktionen, mit denen wir täglich interagieren. Hier sind zwei Beispiele:
Zur Umsetzung eines robusten Modellservicesystems müssen mehrere Komponenten zusammenarbeiten:
Plattformen wie Ultralytics HUB zielen darauf ab, diesen gesamten Arbeitsablauf zu vereinfachen, indem sie integrierte Lösungen für das Training, die Versionierung, den Einsatz und die Bereitstellung von Computer-Vision-Modellen anbieten und sich dabei an den Best Practices von MLOps (Machine Learning Operations) orientieren. Zu den wichtigsten Aspekten gehören die Skalierbarkeit zur Bewältigung von Laständerungen, die Sicherheit(Datensicherheit) und die Wartungsfreundlichkeit.