Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Die Bedeutung von FPS in der Computer Vision verstehen

Abirami Vina

4 Min. Lesezeit

20. März 2025

Erfahren Sie, warum FPS in der Computer Vision wichtig ist und wie sie sich auf Objekterkennung in Echtzeit, Videoanalysen und KI-gestützte Anwendungen auswirkt.

Eine Zeitlupenwiederholung Ihres Lieblingssportmoments, bei der jedes Detail klar ist, unterscheidet sich stark von Überwachungsmaterial, das normalerweise ruckartig und schwer zu verfolgen aussieht. Das wichtigste technische Detail hinter diesen Unterschieden ist FPS oder Frames Per Second, was sich auf die Anzahl der Bilder bezieht, die pro Sekunde in einem Video angezeigt werden. Eine höhere FPS führt zu flüssigen, lebensechten Bewegungen, während eine niedrigere FPS zu ruckartigen, weniger detaillierten Aufnahmen führen kann.

Dieses Konzept wirkt sich direkt auf Computer Vision aus, einen Zweig der KI, der es Maschinen ermöglicht, visuelle Daten ähnlich wie Menschen zu interpretieren und zu analysieren. Im Bereich Computer Vision bedeutet eine höhere FPS, dass Systeme jede Sekunde mehr Informationen erfassen können, wodurch die Genauigkeit der Objekterkennung und -verfolgung in Echtzeit verbessert wird.

In diesem Artikel werden wir die technischen Aspekte von FPS untersuchen und wie diese mit Computer-Vision-Anwendungen zusammenhängen. Los geht's!

Was bedeutet FPS im Bereich Computer Vision?

Nehmen wir an, Sie spielen ein Rennspiel: Bei 60 FPS fühlt sich jede Kurve flüssig und reaktionsschnell an, aber bei 20 FPS verzögert sich die Steuerung, was es erschwert, Hindernissen auszuweichen. Einfach ausgedrückt, kann man sich FPS als die Anzahl der Standbilder vorstellen, die jede Sekunde angezeigt werden. Mehr Bilder pro Sekunde lassen Bewegungen flüssig und natürlich aussehen, während weniger Bilder sie abgehackt wirken lassen können.

Wie beim Gaming ist FPS ein wichtiger Bestandteil von Computer Vision Anwendungen. Eine höhere FPS ermöglicht es, Objekte mit Vision AI reibungslos zu verfolgen, während eine niedrigere FPS zu fehlenden Details führen kann. 

In der Sportanalyse benötigen KI-gestützte Kameras beispielsweise eine höhere FPS, um schnelle Pässe, Spielerbewegungen und Ballflugbahnen verfolgen zu können. Eine niedrigere FPS könnte dazu führen, dass ein wichtiger Kontakt zwischen Fuß und Ball oder eine schnelle Richtungsänderung verpasst wird, was die Genauigkeit der Analyse beeinträchtigt. 

Ebenso sind bei der Verkehrsüberwachung Systeme auf eine hohe FPS angewiesen, um Geschwindigkeitsüberschreitungen und Spurwechsel in Echtzeit zu erkennen. Die Wahl der richtigen FPS hängt von den spezifischen Anforderungen der jeweiligen Computer-Vision-Anwendung ab, wobei Leistung, Effizienz und visuelle Klarheit in Einklang gebracht werden müssen.

__wf_reserved_inherit
Abb. 1. Vergleich verschiedener Bildraten.

Technische Aspekte von FPS in der Computer Vision

Nachdem wir nun besprochen haben, was FPS ist und wie es in der Computer Vision verwendet wird, wollen wir uns mit seinen technischen Aspekten befassen - beginnend damit, wie man die FPS eines Videos berechnet. 

Die Division der Gesamtzahl der Frames durch die Dauer in Sekunden ergibt die FPS eines Videos. Wenn ein Video beispielsweise 96 Frames über 4 Sekunden hat, ergibt sich eine Berechnung von 24 FPS – was bedeutet, dass 24 Bilder pro Sekunde angezeigt werden – während 32 Frames über 4 Sekunden zu 8 FPS führen. Python-Bibliotheken wie OpenCV können verwendet werden, um Video-Metadaten zu extrahieren, Frames zu zählen und FPS automatisch zu berechnen, wodurch der Prozess der Videoanalyse optimiert wird.

__wf_reserved_inherit
Abb. 2. 24 FPS vs. 8 FPS vs. 4 FPS.

Faktoren, die die FPS eines Videos beeinflussen

Die alleinige Berechnung der FPS reicht jedoch nicht aus, um bei der Entwicklung von Computer-Vision-Lösungen technische Entscheidungen zu treffen. Es ist auch wichtig, die verschiedenen Faktoren zu berücksichtigen, die die effektive Bildrate beeinflussen können, wie z. B. Hardware-Fähigkeiten, Software-Optimierungen und Umgebungsbedingungen. 

Hier ist eine genauere Betrachtung dieser Faktoren:

  • Hardwarefähigkeiten: Die Qualität des Kamerasensors und die Rechenleistung des Geräts können bestimmen, wie viele Bilder pro Sekunde aufgenommen werden. Bessere Hardware bedeutet in der Regel Unterstützung für eine höhere FPS-Zahl und flüssigere Videos.
  • Softwareoptimierungen: Effiziente Software zur Videokodierung und -verarbeitung hilft, Frames schnell zu extrahieren und zu analysieren. Dies stellt sicher, dass das Video ohne unnötige Verzögerungen verarbeitet wird.
  • Umgebungsbedingungen: Die Beleuchtung und Bewegung in einer Szene beeinflussen, wie klar Frames erfasst werden. Gute Beleuchtung und moderate Bewegung können die FPS verbessern, während schlechte Bedingungen möglicherweise eine höhere FPS erfordern, um die Klarheit zu erhalten.
  • Speicherbedarf: Eine höhere FPS-Rate erfasst mehr Bilder pro Sekunde, was zu größeren Dateigrößen führt. Dies erhöht den Speicherbedarf und erfordert eine schnellere Datenverarbeitung, um eine reibungslose Wiedergabe zu gewährleisten.

Erkundung von FPS in Computer-Vision-Anwendungen

KI-Modelle wie Ultralytics YOLO11, die Computer-Vision-Aufgaben in Echtzeit unterstützen, können zur Analyse von Videos mit hohen Bildraten verwendet werden. Diese Echtzeitfähigkeit ist entscheidend für Anwendungen wie autonomes Fahren, Überwachung und Robotik, bei denen selbst kleine Verzögerungen zu erheblichen Fehlern führen können. 

Gehen wir einige reale Vision AI-Anwendungen durch, bei denen eine hohe FPS-Rate für Genauigkeit und Leistung unerlässlich ist. 

Eine höhere Bildrate für Überwachungs- und Sicherheitslösungen

Überwachungssysteme, die stark frequentierte Bereiche wie Autobahnen überwachen, verwenden eine hohe FPS-Rate, um kleinste Details zu erfassen und sicherzustellen, dass sich schnell bewegende Fahrzeuge klar dokumentiert werden. Diese Klarheit ist für automatische Kennzeichenerkennungssysteme (ANPR) unerlässlich, die auf qualitativ hochwertiges Filmmaterial angewiesen sind, um Fahrzeuge genau zu identifizieren.

In solchen Systemen können Modelle wie YOLO11 verwendet werden, um Nummernschilder direkt aus dem Video-Feed zu erkennen. Sobald ein Schild erkannt wurde, wird Optical Character Recognition (OCR) verwendet, das Bilder von Text in maschinenlesbare Zeichen umwandelt, um die Schilddetails zu lesen. Dieser Prozess ermöglicht eine schnelle und genaue Fahrzeugidentifizierung und verbessert die Verkehrsüberwachung und die allgemeine Sicherheit.

__wf_reserved_inherit
Abb. 3. Verwendung von YOLO11 zur Erkennung von Nummernschildern.

FPS-Anforderungen für autonome Systeme verstehen

Betrachten Sie ein selbstfahrendes Auto an einem Stoppschild, das seine Umgebung sorgfältig analysiert, um zu entscheiden, ob es sicher weiterfahren kann. Dieses Auto muss fast augenblickliche Entscheidungen treffen, was die Erfassung und Verarbeitung visueller Daten in Echtzeit erfordert. 

Wenn das autonome Fahrzeug mit Kameras ausgestattet ist, die Aufnahmen mit einer höheren FPS-Rate machen können, erhält es einen kontinuierlicheren und detaillierteren Bildstrom. Dieser verbesserte visuelle Input ermöglicht es dem Auto, Hindernisse, Fußgänger und andere Fahrzeuge schnell zu erkennen. Es ermöglicht dem Fahrzeug, prompt auf Veränderungen in seiner Umgebung zu reagieren.

Wenn die Kameras Bilder mit einer niedrigeren FPS-Rate verarbeiten würden, könnte das Fahrzeug eine abgehacktere, weniger detaillierte Ansicht erhalten. Dies könnte seine Reaktionszeit verzögern und das Risiko erhöhen, kritische Informationen zu übersehen, was möglicherweise die Sicherheit beeinträchtigt.

Die Verbindung zwischen FPS und Sportanalytik

Jede Bewegung präzise zu erfassen ist im Sport von entscheidender Bedeutung, wo Sekundenbruchteile über Sieg und Niederlage entscheiden können. Technologie, die eine höhere FPS-Rate unterstützt, ermöglicht es uns, jedes kleinste Detail in der Bewegung aufzuzeichnen, und Trainer, Analysten und Athleten können Spielzüge in Zeitlupe überprüfen, ohne etwas zu verpassen. Sie hilft auch Schiedsrichtern, genauere Entscheidungen in Sportarten wie Tennis, Fußball und Cricket zu treffen, indem sie eine klare, Frame-by-Frame-Ansicht der Action bietet.

Eine interessante Studie über Volleyball analysierte beispielsweise, wie die Verwendung einer höheren FPS die Leistungsbeurteilung verbessert. Die Erhöhung der FPS von 30 auf 240 verbesserte die Bewegungsschärfe und die Objektverfolgung deutlich. Auch die Genauigkeit der Spike-Analyse verbesserte sich, was den Trainern half, die Handpositionierung, die Ballkontaktpunkte und die Sprungmechanik genauer zu verstehen. Darüber hinaus ergab die Studie, dass eine höhere FPS die Bewegungsunschärfe reduzierte, wodurch Aufschläge und defensive Reaktionen leichter zu analysieren waren. 

__wf_reserved_inherit
Abb. 4. Vergleich von niedrigen und hohen FPS in Bezug auf die Bewegungsschärfe.

Wann die Verwendung einer niedrigen FPS-Rate in der Videoanalyse effektiv ist

Nicht alle Computer-Vision-Anwendungen erfordern die Aufzeichnung von Filmmaterial mit einer höheren FPS. In vielen Fällen reicht eine niedrigere FPS aus, um genaue Ergebnisse zu erzielen, abhängig von der Aufgabe. Hier sind einige Schlüsselbereiche, in denen eine niedrigere FPS bevorzugt wird:

  • Offline-Nachbearbeitung und -Analyse: Für Anwendungen wie Verkehrsüberwachung und Crowd-Analyse ist es nicht immer erforderlich, jedes Bild mit einer hohen FPS-Rate zu erfassen. Eine niedrigere FPS-Rate kann dennoch genügend Daten liefern, um Bewegungsmuster zu analysieren, wie z. B. Fahrzeugfluss, Fußgängerdichte und Stautendenzen. Durch die Reduzierung redundanter Frames minimiert dieser Ansatz den Speicherbedarf und die Rechenlast bei gleichzeitiger Aufrechterhaltung genauer Analysen.
  • Zeitraffer-Umweltüberwachung: Für die Verfolgung langsamer Veränderungen wie Pflanzenwachstum, Baufortschritt oder Gletscherbewegung reicht es aus, alle paar Minuten oder einmal pro Tag ein Bild aufzunehmen, um langfristige Veränderungen effektiv zu dokumentieren und gleichzeitig Speicherplatz zu sparen.
  • Ressourcenbeschränkte Umgebungen: Bei der Wildtierüberwachung und der Fernüberwachung der Sicherheit trägt eine niedrigere FPS-Rate dazu bei, die Batterielebensdauer und den Speicherplatz zu schonen. Bewegungsausgelöste Kameras, die mit 5–10 FPS arbeiten, können wichtige Ereignisse über längere Zeiträume erfassen und sind somit ideal für netzunabhängige Installationen.

Die Wahl der richtigen FPS für Deep-Learning-Anwendungen

Die Auswahl der idealen FPS erfordert ein ausgewogenes Verhältnis zwischen Leistung und Systembeschränkungen. Hier sind einige Überlegungen zur Optimierung der FPS für Deep-Learning-Anwendungen:

  • Leistung und Ressourcen ausgleichen: Eine höhere FPS verbessert die Reaktionsfähigkeit, erhöht aber auch den Strom- und Verarbeitungsbedarf. Das dynamische Anpassen der FPS, die Verwendung von Frame-Interpolation und die Optimierung der Hardware können dazu beitragen, eine reibungslose Leistung aufrechtzuerhalten, ohne das System zu überlasten.
  • Anwendungsspezifische Anforderungen: Verschiedene Anwendungen haben unterschiedliche FPS-Anforderungen. Batteriebetriebene Geräte sollten eine niedrigere FPS-Rate verwenden, um Energie zu sparen, während Echtzeitsysteme wie Drohnen und autonome Fahrzeuge eine höhere FPS-Rate für schnelle und genaue Reaktionen benötigen.
  • Testen und Optimierung: FPS-Einstellungen sollten idealerweise unter verschiedenen Licht- und Bewegungsbedingungen getestet werden. Die Bewertung der Latenz und der Vergleich von FPS-Werten nebeneinander hilft, das beste Gleichgewicht zwischen Reaktionsfähigkeit, visueller Qualität und Ressourceneffizienz zu bestimmen.

Zukünftige Innovationen und FPS-Optimierung für KI-Modelle

Fortschritte in der KI und Hardware-Optimierung machen höhere Bildraten erreichbarer, selbst in ressourcenbeschränkten Umgebungen. So können beispielsweise Branchen wie Kino, Sport und Robotik von einem intelligenteren Frame-Rate-Management profitieren, bei dem Systeme die FPS dynamisch an die Bewegungskomplexität und die Rechenleistung anpassen. KI-gesteuerte Frame-Interpolation verbessert auch die Videoglätte, indem sie zusätzliche Frames in Echtzeit generiert.

Unterdessen treibt ein aktueller Durchbruch von NVIDIA die FPS-Leistung noch weiter voran. DLSS 4 (Deep Learning Super Sampling) führt die Multi-Frame-Generierung ein, die KI verwendet, um zusätzliche Frames vorherzusagen und zu erstellen. Dies erhöht die Framerate um das bis zu 8-fache und reduziert gleichzeitig die Arbeitslast des Systems.

Indem DLSS 4 einen Teil des Renderings von der KI übernehmen lässt, werden Grafiken flüssiger, ohne die Hardware zusätzlich zu belasten, was sowohl die Leistung als auch die Effizienz verbessert.

Wesentliche Erkenntnisse

FPS ist mehr als nur ein Maß für flüssige Bilder; es treibt die Echtzeit-Entscheidungsfindung in KI und Computer Vision voran. Jedes Frame in einem Video erfasst kritische Daten, die es Maschinen ermöglichen, Objekte zu verfolgen, Bewegungen zu analysieren und auf dynamische Umgebungen zu reagieren. Ob selbstfahrende Autos, die Hindernissen ausweichen, oder Überwachungssysteme, die Bedrohungen sofort erkennen, die richtige FPS-Zahl gewährleistet Genauigkeit und Effizienz.

Die Zukunft von FPS besteht nicht nur in der Erhöhung der Bildrate, sondern auch in deren intelligenter Optimierung. Diese Entwicklung wird Computer-Vision-Systeme in verschiedenen Branchen schneller, innovativer und ressourceneffizienter machen.

Möchten Sie mehr über KI erfahren? Erkunden Sie unser GitHub-Repository und treten Sie unserer Community bei. Sind Sie bereit, Ihre eigenen Computer-Vision-Projekte zu starten? Sehen Sie sich unsere Lizenzoptionen an. Erfahren Sie, wie Computer Vision im Gesundheitswesen die Effizienz verbessert, und erkunden Sie die Auswirkungen von KI in der Fertigung, indem Sie unsere Lösungsseiten besuchen!

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert