Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Neuronale Strahlungsfelder (NeRF)

Entdecken Sie, wie Neural Radiance Fields (NeRF) aus 2D-Bildern 3D-Szenen synthetisieren. Erfahren Sie, wie Sie das NeRF-Training mit Ultralytics für eine präzise Segmentierung verbessern können.

Neural Radiance Fields (NeRF) stellen einen bahnbrechenden Fortschritt in den Bereichen Computervision (CV) und generative KI dar und wurden entwickelt, um fotorealistische 3D-Szenen aus einer spärlichen Reihe von 2D-Bildern zu synthetisieren. Im Gegensatz zu herkömmlichen 3D-Modellierungsansätzen, die sich auf explizite geometrische Strukturen wie Polygone, Netze oder Punktwolken stützen, verwendet ein NeRF ein neuronales Netzwerk (NN), um eine „implizite” Darstellung einer Szene zu erlernen. Durch die Zuordnung von Raumkoordinaten und Blickrichtungen zu Farb- und Dichtewerten können NeRFs neuartige Blickwinkel mit außergewöhnlicher Genauigkeit rendern und komplexe visuelle Effekte wie Reflexionen, Transparenz und variable Beleuchtung präzise erfassen, die mit Standard-Photogrammetrie oft nur schwer zu reproduzieren sind .

Wie neuronale Strahlungsfelder funktionieren

Im Kern modelliert ein NeRF eine Szene als kontinuierliche volumetrische Funktion. Diese Funktion wird in der Regel durch ein vollständig verbundenes Deep-Learning-Netzwerk (DL) parametrisiert. Der Prozess beginnt mit dem Ray Marching, bei dem Strahlen von einer virtuellen Kamera durch jedes Pixel der gewünschten Bildebene in den 3D-Raum geworfen werden.

Für Punkte, die entlang jedes Strahls abgetastet werden, nimmt das Netzwerk eine 5D-Eingabe entgegen – bestehend aus der 3D-Raumposition ($x, y, z$) und der 2D-Blickrichtung ($\theta, \phi$) – und gibt die emittierte Farbe und Volumendichte (Opazität) an diesem Punkt aus. Mithilfe von Techniken, die auf Volumenrendering basieren, werden diese abgetasteten Werte akkumuliert, um die endgültige Farbe des Pixels zu berechnen. Das Netzwerk wird trainiert, indem die Differenz zwischen den gerenderten Pixeln und den tatsächlichen Pixeln aus den ursprünglichen Trainingsdaten minimiert wird, wodurch die Modellgewichte effektiv optimiert werden, um die visuellen Eigenschaften der Szene zu speichern .

Anwendungsfälle in der Praxis

Die NeRF-Technologie hat sich rasch von der akademischen Forschung zu praktischen Werkzeugen entwickelt und beeinflusst verschiedene Branchen, indem sie die Lücke zwischen statischer Fotografie und interaktiven 3D-Umgebungen schließt.

  • Immersiver E-Commerce: Einzelhändler nutzen NeRFs, um interaktive Produktdemonstrationen zu erstellen. Durch die Verarbeitung einiger Fotos eines Artikels kann die KI in Einzelhandelslösungen eine 3D-Darstellung generieren, die Kunden aus jedem Winkel betrachten können und die ein reichhaltigeres Erlebnis bietet als statische Bilder.
  • Virtuelle Produktion und VFX: Die Filmindustrie nutzt NeRFs, um reale Schauplätze zu erfassen und sie als fotorealistische Hintergründe für die virtuelle Produktion zu rendern. So können Filmemacher Schauspieler in digitale Umgebungen versetzen, die sich realistisch mit Kamerabewegungen verhalten, wodurch die Notwendigkeit teurer Dreharbeiten vor Ort reduziert wird.
  • Robotik-Simulation: Das Training autonomer Fahrzeuge und Drohnen erfordert riesige Datenmengen. NeRFs können komplexe reale Umgebungen aus Sensordaten rekonstruieren und so hochpräzise Simulationsumgebungen schaffen, in denen Robotik-Algorithmen sicher und umfassend getestet werden können.

Abgrenzung zu verwandten Konzepten

Es ist hilfreich, NeRF von anderen 3D- und Bildverarbeitungstechnologien zu unterscheiden, um seinen spezifischen Nutzen zu verstehen.

  • NeRF vs. Photogrammetrie: Die Photogrammetrie rekonstruiert explizit die Oberflächengeometrie (Meshes), indem sie Merkmale über Bilder hinweg abgleicht. Während dies für einfache Oberflächen effizient ist, hat sie oft Schwierigkeiten mit „nicht-lambertischen“ Effekten wie glänzenden Oberflächen, dünnen Strukturen (wie Haaren) oder Transparenz. NeRFs zeichnen sich in diesen Bereichen aus, da sie das Volumen und den Lichttransport direkt modellieren.
  • NeRF vs. 3D-Objekterkennung: Während NeRF visuelle Daten generiert, konzentriert sich die 3D-Objekterkennung darauf, den Inhalt der Szene zu verstehen. Erkennungsmodelle identifizieren und lokalisieren Objekte mithilfe von Begrenzungsrahmen, während NeRFs sich mit der Darstellung des Aussehens der Szene befassen.
  • NeRF vs. Tiefenschätzung: Die Tiefenschätzung prognostiziert den Abstand der Pixel von der Kamera, was zu einer Tiefenkarte führt. NeRFs lernen implizit Geometrie, um Bilder zu rendern, aber ihr primäres Ergebnis ist die synthetisierte Ansicht und nicht eine explizite Tiefenkarte.

Integration von NeRF in Vision Pipelines

Für das Training eines hochwertigen NeRF sind oft saubere Daten erforderlich. Hintergrundgeräusche oder sich bewegende Objekte können im endgültigen Rendering zu „Ghosting“-Artefakten führen. Um dies zu vermeiden, verwenden Entwickler häufig Instanzsegmentierungsmodelle, um das gewünschte Motiv vor dem Training des NeRF automatisch auszublenden.

Die Ultralytics und die Python ermöglichen eine nahtlose Integration der Segmentierung in diesen Vorverarbeitungs-Workflow. Das folgende Beispiel zeigt, wie man mit YOLO26 Masken für eine Reihe von Bildern generiert und diese für die 3D-Rekonstruktion vorbereitet.

from ultralytics import YOLO

# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")

# Run inference to detect and segment objects
# Saving results creates masks useful for NeRF preprocessing
results = model("scene_image.jpg", save=True)

# Access the binary masks for the detected objects
masks = results[0].masks.data
print(f"Generated {len(masks)} masks for NeRF training.")

Durch die Kombination der Präzision der Segmentierung mit der generativen Leistungsfähigkeit von NeRFs können Ingenieure robuste Pipelines für die Generierung synthetischer Daten erstellen, wodurch die Erstellung unbegrenzter Trainingsbeispiele für andere nachgelagerte Aufgaben ermöglicht wird.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten