Verstehen Sie, wie SharkEye, präsentiert auf der YOLO Vision 2024, Ultralytics YOLOv8 für die Echtzeit-Objekterkennung und Strandsicherheit nutzt.

Verstehen Sie, wie SharkEye, präsentiert auf der YOLO Vision 2024, Ultralytics YOLOv8 für die Echtzeit-Objekterkennung und Strandsicherheit nutzt.

Die Beobachtung von Tieren in ihren natürlichen Lebensräumen, sei es Weidevieh auf einer Farm oder Haie in Küstennähe, ist seit jeher wichtig für ihre Sicherheit und ihr Wohlergehen. Die manuelle Beobachtung ist jedoch nicht einfach. Sie erfordert oft stundenlange Geduld und sorgfältige Konzentration, da die Beobachter genau auf Verhaltens- oder Bewegungsänderungen achten müssen. Selbst dann können subtile, aber wichtige Anzeichen leicht übersehen werden.
Dank des Einsatzes von künstlicher Intelligenz (KI) wird dieser Prozess schneller, intelligenter und weitaus effizienter, wodurch die Belastung für menschliche Beobachter reduziert und gleichzeitig die Genauigkeit verbessert wird. Insbesondere kann Computer Vision verwendet werden, um Tiere zu verfolgen, Gefahren zu erkennen und Entscheidungen in Echtzeit zu treffen. Aufgaben, die früher Stunden dauerten, können jetzt in Minuten erledigt werden, was neue Möglichkeiten eröffnet, das Verhalten von Tieren zu verstehen.
Auf der YOLO Vision 2024 (YV24), einer jährlichen Hybridveranstaltung von Ultralytics, trafen sich Experten und Innovatoren, um zu untersuchen, wie KI alltägliche Herausforderungen bewältigt. Zu den vorgestellten Themen gehörten Fortschritte bei der Echtzeit-Objekterkennung und der Tierüberwachung, die zeigen, wie KI die Sicherheit und Effizienz in verschiedenen Bereichen verbessert.
Einer der Höhepunkte der Veranstaltung war ein Vortrag von Jim Griffin, Gründer der AI Master Group, in dem er demonstrierte, wie Vision AI Strände sicherer macht, indem sie Haie erkennt, bevor sie zu nahe an die Küste kommen. Er erklärte, wie sie Ultralytics YOLOv8, ein hochmodernes Computer-Vision-Modell, verwendeten, um Haie in Echtzeit genau zu identifizieren, selbst unter schwierigen Bedingungen wie unruhigen Wellen, Blendung und Unterwasserhindernissen.
In diesem Artikel werden wir uns das SharkEye-Projekt genauer ansehen und interessante Einblicke aus Jims Vortrag teilen.
Jim begann seinen Vortrag mit der Vorstellung von Padaro Beach, einem bekannten Surfziel in Kalifornien, wo sich Surfer und Haie oft das gleiche Gewässer teilen. Er betonte die eigentliche Herausforderung der Erkennung von Haien und sagte: “Es ist natürlich einfach, einen Hai zu erkennen, wenn er einen beißt. Wir wollten die Haie aber schon vorher identifizieren.”

SharkEye wurde mit Unterstützung der University of California, Santa Barbara, entwickelt, um dieses Problem anzugehen. Jim beschrieb, wie Drohnen mit hochauflösenden KI-Kameras eingesetzt wurden, um etwa 200 Fuß über dem Wasser zu fliegen und den Ozean in Echtzeit zu scannen.
Wenn ein Hai entdeckt wird, erhalten etwa 80 Personen eine SMS-Benachrichtigung, darunter Rettungsschwimmer, Surfshop-Besitzer und alle, die sich für Updates angemeldet haben. Jim wies darauf hin, wie diese sofortigen Benachrichtigungen schnelle Reaktionen ermöglichen und die Badegäste sicherer machen, wenn sich ein Hai in Küstennähe befindet.
Jim erwähnte auch, dass SharkEye ein Live-Dashboard bietet, auf dem Benutzer Statistiken zur Erkennung von Haien einsehen können. So identifizierte das System beispielsweise über einen Zeitraum von 12 Wochen zwei große und 15 kleinere Haie, was einem Durchschnitt von etwas mehr als einem Hai pro Woche entspricht.
Anschließend stellte er Neil Nathan vor, den Wissenschaftler, der die Bemühungen hinter SharkEye leitete. Obwohl Nathan eher einen Hintergrund in Umweltstudien als in Informatik hatte, leitete er das Projekt erfolgreich. Jim betonte, wie moderne KI-Tools, wie sie in SharkEye verwendet werden, so konzipiert sind, dass sie zugänglich sind und es Einzelpersonen mit nicht-technischem Hintergrund ermöglichen, wirkungsvolle Lösungen zu entwickeln.
Jim ging weiter ins Detail und erläuterte, was sich unter der Haube von SharkEye befindet und dass die Lösung zur Erkennung von Haien nicht nur eine einfache Objekterkennung beinhaltete. Sie musste mit dynamischen, unvorhersehbaren Bedingungen wie schwimmenden Algen fertig werden, die leicht mit Haien verwechselt werden konnten. Im Gegensatz zum Erkennen eines stationären Objekts erfordert die Identifizierung eines Hais Präzision und Anpassungsfähigkeit, was YOLOv8 zu einer idealen Wahl macht.
Ein weiterer Vorteil von YOLOv8 war, dass es auf einer Drohne eingesetzt werden konnte, ohne auf Cloud-Server angewiesen zu sein. Jim erklärte, wie dieser Ansatz es SharkEye ermöglichte, sofortige Warnmeldungen zu senden - ein wesentlicher Bestandteil, um rechtzeitige Reaktionen in unvorhersehbaren Meeresbedingungen zu gewährleisten.
Nachdem Jim hervorgehoben hatte, wie SharkEye funktioniert und welche gemeinschaftliche Anstrengung dahinter steckt, präsentierte er eine Live-Demo.
Jim Griffin begann seine Live-Demo, indem er das Publikum durch ein bekanntes Beispiel führte - ein "Hallo Welt"-Code-Snippet für Ultralytics YOLO-Modelle. Mit nur sechs Zeilen Python-Code demonstrierte er, wie ein vortrainiertes Ultralytics YOLOv8-Modell mühelos einen Bus in einem Bild erkennen konnte.

Seine Demo verwendete das YOLOv8 Nano Modell, eine leichtgewichtige Version für Geräte mit geringem Stromverbrauch wie Drohnen. Dasselbe Modell wurde in SharkEye für die Echtzeit-Erkennung von Haien verwendet.
Um mehr Kontext zu bieten, erwähnte Jim, dass das Modell in der Demo mit COCO128 trainiert wurde, einer kleineren Teilmenge des weit verbreiteten COCO-Datensatzes. Der COCO-Datensatz enthält über 20.000 Bilder aus 80 verschiedenen Objektkategorien. Während COCO128 gut für schnelle Demonstrationen geeignet ist, wies er darauf hin, dass SharkEye etwas Robusteres benötigt – einen anwendungsspezifischen Datensatz zur Erkennung von Haien, der die Komplexität realer Szenarien bewältigen kann.
Laut Jim war der schwierigste Teil des SharkEye-Projekts nicht das Training des KI-Modells, sondern das Sammeln der richtigen Daten. Er kommentierte: "Die Hauptarbeit dieses Projekts war nicht KI. Die Hauptarbeit dieses Projekts bestand darin, diese Drohnen fünf Jahre lang darüber fliegen zu lassen, die Bilder aus diesen Videos herauszusuchen und sie entsprechend zu taggen."
Er beschrieb, wie das Team 15.000 Bilder am Padaro Beach sammelte. Jedes Bild musste manuell beschriftet werden, um zwischen Haien, Seetang und anderen Objekten im Wasser zu unterscheiden. Obwohl der Prozess langsam und anstrengend war, legte er den Grundstein für alles, was folgte.

Sobald der Datensatz fertig war, wurde Ultralytics YOLOV8 darauf benutzerdefiniert trainiert. Jim sagte: "Das eigentliche Training war nicht der schwierige Teil - es dauerte nur 20 Stunden auf T4-GPUs [Graphics Processing Units]." Er fügte hinzu, dass die Zeit mit leistungsstärkerer Hardware, wie z. B. A100-GPUs, auf nur fünf Stunden hätte reduziert werden können.
Dann erörterte Jim, wie die Leistung von SharkEye bewertet wurde. Er veranschaulichte, dass die Schlüsselmetrik die Präzision war – wie genau das System tatsächliche Haie identifizierte. Da SharkEye eine beeindruckende Präzision von 92 % erreichte, erwies sich das Modell als äußerst effektiv bei der genauen Identifizierung von Haien in der komplexen Meeresumwelt.
Jim ging näher auf die Bedeutung der Präzision ein und erläuterte, warum die Präzision in diesem Fall wichtiger war als die Trefferquote (Recall). “Meistens sind die Leute an der Trefferquote (Recall) interessiert, besonders in Bereichen wie dem Gesundheitswesen, wo das Übersehen eines positiven Falls kritisch sein kann. Aber in diesem Fall wussten wir nicht, wie viele Haie da draußen waren, also war uns die Präzision wichtig”, erklärte er. SharkEye stellte sicher, dass Fehlalarme minimiert wurden, indem es sich auf die Präzision konzentrierte, was es Rettungsschwimmern und anderen Einsatzkräften erleichterte, schnell zu handeln.

Er beendete seinen Vortrag mit einem Vergleich der KI mit der menschlichen Leistung und stellte fest, dass die 92-prozentige Präzision von SharkEye die 60-prozentige Genauigkeit menschlicher Experten bei weitem übertraf. Er betonte diese Lücke mit den Worten: „Das liegt daran, dass wir Menschen sind. Egal wie kompetent Sie oder ich auch sein mögen, wenn wir den ganzen Tag vor einem Bildschirm sitzen und nach Haien suchen müssen, werden unsere Gedanken irgendwann abschweifen.“ Im Gegensatz zu Menschen werden KI-Modelle nicht müde oder lassen sich ablenken, was sie zu einer zuverlässigen Lösung für Aufgaben macht, die eine kontinuierliche Überwachung erfordern.
Ein faszinierendes Zitat aus Jim Griffins Vortrag “Sechs Zeilen Code könnten eines Tages dein Leben retten” fängt perfekt ein, wie fortschrittlich und dennoch zugänglich KI geworden ist. Die Ultralytics YOLO-Modelle wurden mit diesem Gedanken im Hinterkopf entwickelt, um Entwicklern und Unternehmen jeder Größe modernste Computer-Vision-Technologie zugänglich zu machen. Ultralytics YOLO11 baut darauf mit schnelleren Inferenzzeiten und höherer Genauigkeit auf.
Hier ist ein kurzer Überblick darüber, was YOLO11 auszeichnet:
Diese Eigenschaften machen YOLO11 zu einer ausgezeichneten Wahl für die Verfolgung von Tierverhalten in dynamischen Umgebungen, sei es auf einem Bauernhof oder in freier Wildbahn.
Fortschritte in der Vision-KI erleichtern die Bewältigung realer Herausforderungen, indem sie praktische Werkzeuge für verschiedene Bereiche bereitstellen. So können beispielsweise Computer-Vision-Modelle wie YOLO11 für die Echtzeitüberwachung und -verfolgung von Tieren eingesetzt werden, selbst unter schwierigen Bedingungen.
Jim Griffins Keynote auf der YV24 veranschaulichte, wie YOLOv8 verwendet werden kann, um komplexe Probleme mit minimalem Programmieraufwand zu lösen. Das SharkEye-Projekt, das Drohnen mit KI zur Echtzeit-Erkennung von Haien kombiniert, zeigte, wie Technologie die Sicherheit an Stränden verbessern kann.
Es war eine faszinierende Fallstudie darüber, wie zugängliche KI Menschen mit unterschiedlichem Hintergrund in die Lage versetzt, effektive Lösungen zu entwickeln. Da sich KI ständig weiterentwickelt, verändert sie Branchen und ermöglicht es Einzelpersonen, ihr Potenzial zu nutzen, um die Welt sicherer, intelligenter und effizienter zu machen.
Werden Sie Teil unserer Community und erkunden Sie unser GitHub-Repository, um tiefer in die KI einzutauchen. Von Computer Vision in der Landwirtschaft bis hin zu KI in selbstfahrenden Autos - sehen Sie, wie diese Technologien Innovationen vorantreiben. Sehen Sie sich unsere Lizenzoptionen an, um noch heute mit Ihren KI-Projekten zu beginnen!