Glossar

Stiftung Modell

Entdecken Sie, wie Basismodelle die KI mit skalierbaren Architekturen, breitem Pretraining und Anpassungsfähigkeit für verschiedene Anwendungen revolutionieren.

Ein Basismodell ist ein groß angelegtes Modell für maschinelles Lernen (ML), das auf einer großen Menge breiter, unbeschrifteter Daten trainiert wurde und an eine Vielzahl nachgelagerter Aufgaben angepasst werden kann. Das vom Stanford Institute for Human-Centered AI geprägte Kernkonzept sind "emergente Eigenschaften", bei denen das Modell ein überraschend vielseitiges Verständnis von Mustern, Syntax und Semantik aus den Daten entwickelt, mit denen es trainiert wurde. Diese Allzwecknatur ermöglicht es, dass es als leistungsstarker Ausgangspunkt oder "Grundlage" für die Erstellung spezialisierterer Modelle durch einen Prozess namens Feinabstimmung dient.

Hauptmerkmale und Anwendungen

Das entscheidende Merkmal von Basismodellen ist ihre Anpassungsfähigkeit, die sich aus dem Paradigma des Transferlernens ergibt. Anstatt für jedes Problem ein neues Modell von Grund auf zu trainieren, können Entwickler ein vortrainiertes Basismodell nehmen und es mit einem viel kleineren, aufgabenspezifischen Datensatz anpassen. Dadurch wird der Daten-, Rechen- und Zeitaufwand für die Entwicklung leistungsstarker KI-Systeme drastisch reduziert.

Anwendungen aus der Praxis zeigen ihre Vielseitigkeit:

  1. Fortgeschrittene Chatbots und virtuelle Assistenten: Ein Large Language Model (LLM) wie OpenAIs GPT-4 dient als Basismodell für Sprache. Es ist auf einem riesigen Korpus von Internettexten vortrainiert, um Grammatik, Fakten und Argumentationsfähigkeiten zu verstehen. Ein Unternehmen kann es dann mit seinen internen Dokumenten und Kundeninteraktionsprotokollen feinabstimmen, um einen spezialisierten Chatbot zu erstellen, der spezifische Fragen zu seinen Produkten oder Dienstleistungen mit hoher Genauigkeit beantworten kann.
  2. Medizinische Bildanalyse: In der Computer Vision ist ein Modell wie das Segment Anything Model (SAM) von Meta AI ein Grundmodell für die Bildsegmentierung. Es kann Objekte in jedem Bild ohne vorherigen Kontext identifizieren und umreißen. Medizinische Forscher können dieses Modell dann an einem kleineren Satz von MRT- oder CT-Scans feinabstimmen, um bestimmte Organe genau zu segmentieren oder Anomalien wie Tumore zu erkennen, was die Diagnose für die medizinische Bildanalyse beschleunigt.

Stiftungsmodelle vs. andere Modelle

Es ist wichtig, Gründungsmodelle von verwandten Konzepten zu unterscheiden:

  • Aufgabenspezifische Modelle: Traditionell wurden bei ML Modelle von Grund auf für einen einzigen Zweck trainiert, z. B. ein Ultralytics YOLO-Modell ausschließlich für die Erkennung von Paketen in der Logistik. Dieser Ansatz ist zwar effektiv, erfordert aber für jede neue Aufgabe umfangreiche markierte Daten. Basismodelle bieten eine effizientere Alternative.
  • Große Sprachmodelle (LLMs): LLMs sind ein bekannter Typ von Basismodellen, die sich auf Sprachaufgaben konzentrieren. Der Begriff "Basismodell" ist jedoch weiter gefasst und umfasst auch Modelle für Bild-, Audio- und andere Datenmodalitäten, wie in dem wegweisenden Papier "On the Opportunities and Risks of Foundation Models" beschrieben .
  • Spezialisierte Bildverarbeitungsmodelle: Während große Bildverarbeitungsmodelle wie der Vision Transformer (ViT) als Basismodelle gelten, sind viele spezialisierte CV-Modelle dies nicht. So ist beispielsweise ein YOLO11-Modell, das auf eine bestimmte Anwendung wie KI in der Automobilindustrie abgestimmt ist, ein spezialisiertes Modell. Es nutzt jedoch ein vortrainiertes Grundgerüst, das grundlegendes Wissen enthält, das aus großen Datensätzen wie COCO abgeleitet wurde.

Ausbildung und zukünftige Bedeutung

Das Vortraining von Basismodellen ist ein ressourcenintensives Unterfangen, das oft Tausende von Grafikprozessoren und einen enormen technischen Aufwand erfordert und in der Regel von großen Unternehmen wie Google AI und DeepMind durchgeführt wird. Sobald diese Modelle jedoch trainiert sind, werden sie für eine breitere Nutzung zugänglich gemacht.

Plattformen wie Ultralytics HUB bieten Tools, die den Benutzern helfen, diese grundlegenden Fähigkeiten anzupassen, indem sie die Arbeitsabläufe für das Training benutzerdefinierter Modelle, die Verwaltung von Datensätzen und die Bereitstellung von Lösungen optimieren, oft mit sorgfältiger Abstimmung der Hyperparameter.

Stiftungsmodelle verändern die KI-Landschaft, indem sie den Zugang zu leistungsstarken Funktionen demokratisieren. Ihr Aufstieg führt auch zu kritischen Diskussionen über die Ethik der KI, die Voreingenommenheit bei der Datenerfassung und die Kluft bei der Datenverarbeitung. Die Zukunft deutet auf leistungsfähigere, effizientere und multimodale Modelle hin, die Informationen aus Text, Bild und Ton gleichzeitig verstehen und verarbeiten können und damit die nächste Welle von KI-Anwendungsfällen vorantreiben.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert