Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Neuronale Architektursuche (NAS)

Entdecken Sie, wie Neural Architecture Search (NAS) das Design neuronaler Netze automatisiert, um die Leistung bei Objekterkennung, KI und mehr zu optimieren.

Neural Architecture Search (NAS) ist eine Technik, die das Design von künstlichen neuronalen Netzen (NN) automatisiert. Traditionell erforderte das Design einer leistungsstarken Modellarchitektur umfangreiches Fachwissen sowie viel Ausprobieren. NAS automatisiert diesen komplexen Prozess, indem Algorithmen verwendet werden, um eine breite Palette möglicher Netzwerkdesigns zu untersuchen und die optimalste Architektur für eine bestimmte Aufgabe und einen bestimmten Datensatz zu identifizieren. Diese Automatisierung beschleunigt die Entwicklung von effizienten und leistungsstarken Deep-Learning-Modellen und macht fortschrittliche KI zugänglicher.

Wie Neural Architecture Search funktioniert

Der NAS-Prozess lässt sich in drei Hauptkomponenten unterteilen:

  1. Suchraum: Dieser definiert die Menge aller möglichen Architekturen, die entworfen werden können. Ein Suchraum kann einfach sein und Optionen für Schichttypen (z. B. Faltung, Pooling) und deren Verbindungen festlegen, oder er kann hochkomplex sein und neuartige architektonische Motive ermöglichen. Ein gut definierter Suchraum ist entscheidend, um Flexibilität und Rechenaufwand in Einklang zu bringen.
  2. Suchstrategie: Dies ist der Algorithmus, der verwendet wird, um den Suchraum zu erkunden. Frühe Methoden verwendeten die Zufallssuche, aber inzwischen haben sich anspruchsvollere Strategien entwickelt. Zu den gängigen Ansätzen gehören Reinforcement Learning, bei dem ein Agent lernt, optimale Architekturen auszuwählen, und evolutionäre Algorithmen, die die natürliche Selektion nachahmen, um über Generationen hinweg bessere Architekturen zu "entwickeln". Gradientenbasierte Methoden, wie z. B. in Differentiable Architecture Search (DARTS), sind aufgrund ihrer Effizienz ebenfalls populär geworden.
  3. Strategie zur Leistungsschätzung: Diese Komponente bewertet die Qualität jeder vorgeschlagenen Architektur. Die einfachste Methode ist, das Modell vollständig auf einem Datensatz zu trainieren und seine Leistung zu messen, aber dies ist extrem zeitaufwändig. Um den Prozess zu beschleunigen, haben Forscher effizientere Techniken entwickelt, wie z. B. die Verwendung kleinerer Datensätze, das Training für weniger Epochen oder die Verwendung von Gewichtsteilung, um zu vermeiden, jede Architektur von Grund auf neu zu trainieren.

Anwendungen und Beispiele

NAS hat sich als äußerst effektiv bei der Erstellung hochmoderner Modelle für verschiedene Aufgaben erwiesen und übertrifft in Bezug auf Leistung und Effizienz oft von Menschen entworfene Architekturen.

  • Computer Vision: NAS wird häufig verwendet, um effiziente Architekturen für die Objekterkennung und Bildklassifizierung zu entwerfen. Beispielsweise wurde die EfficientNet-Familie von Modellen mithilfe von NAS entwickelt, um die Netzwerk-Tiefe, -Breite und -Auflösung systematisch auszugleichen. In ähnlicher Weise nutzen Modelle wie DAMO-YOLO ein von NAS generiertes Backbone, um ein starkes Gleichgewicht zwischen Geschwindigkeit und Genauigkeit für die Objekterkennung zu erreichen.
  • Medizinische Bildanalyse: Im Gesundheitswesen kann NAS spezialisierte Modelle für Aufgaben wie die Tumorerkennung in Scans oder die Segmentierung zellulärer Strukturen erstellen. NAS kann Architekturen optimieren, um effizient auf der speziellen Hardware in medizinischen Geräten zu laufen, was zu schnelleren und genaueren Diagnosen führt. Dies hat ein erhebliches Potenzial zur Verbesserung von KI im Gesundheitswesen.

NAS und verwandte Konzepte

NAS ist eine spezifische Komponente innerhalb des breiteren Felds des automatisierten maschinellen Lernens (AutoML). Während sich NAS ausschließlich auf die Suche nach der besten neuronalen Netzwerkarchitektur konzentriert, zielt AutoML darauf ab, die gesamte ML-Pipeline zu automatisieren, einschließlich Schritten wie Datenvorverarbeitung, Feature Engineering, Modellauswahl und Hyperparameter-Optimierung.

Es ist entscheidend, NAS von der Hyperparameter-Optimierung zu unterscheiden: Die Hyperparameter-Optimierung optimiert die Konfigurationseinstellungen (wie Lernrate oder Batch-Größe) für eine gegebene, feste Modellarchitektur, während NAS nach der Architektur selbst sucht. Beide Techniken werden oft zusammen verwendet, um eine optimale Modellleistung zu erzielen. Tools wie Optuna oder Ray Tune, das sich in Ultralytics YOLO-Modelle integriert, sind beliebt für die Hyperparameter-Optimierung. Das Verständnis dieser Unterschiede hilft bei der Anwendung der richtigen Automatisierungstechniken für den Aufbau effizienter KI-Systeme. Weitere Informationen zur Hyperparameter-Optimierung in der Ultralytics-Dokumentation finden Sie hier.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert