Grüner Scheck
Link in die Zwischenablage kopiert

Ausgeführte Ultralytics Objekterkennungs- und Segmentierungsmodelle in wenigen Codezeilen

Eine Schritt-für-Schritt-Anleitung, wie man Ultralytics Objekterkennungs- und Segmentierungsmodelle in wenigen Zeilen Code ausführt.

Willkommen zu einem weiteren Blogpost, in dem wir uns mit den Möglichkeiten von Ultralytics' YOLOv5 und YOLOv8 Modellen bei der Objekterkennung und -segmentierung. Wir zeigen dir, wie du diese benutzerfreundlichen Modelle mit nur ein paar Zeilen Code in deine Projekte integrieren kannst. Egal, ob du ein Anfänger oder ein erfahrener Entwickler bist, du wirst sehen, wie Ultralytics verschiedene Modelle und Architekturen unterstützt, einschließlich verschiedener YOLO Versionen und Transformator-basierter Modelle. 

In seinem Video führt uns Nicolai Nielsen durch den Prozess der Einrichtung und Verwendung verschiedener Modelle innerhalb des Ultralytics Frameworks. Wir gehen Schritt für Schritt vor und sehen, wie du mit diesen unglaublichen Tools loslegen kannst.

Erste Schritte mit Ultralytics Modellen

Ultralytics bietet ein umfassendes Framework, das mehrere Modelle zur Objekterkennung und -segmentierung unterstützt. Dazu gehören die beliebten YOLO Modelle, von YOLOv3 bis zum neuesten YOLOv8, sowie die Modelle YOLO-NAS und SAM . Diese Modelle wurden entwickelt, um eine Vielzahl von Aufgaben zu bewältigen, wie z. B. die Erkennung in Echtzeit, Segmentierung und Posenschätzung.

Besuche zunächst die DokumentationsseiteUltralytics . Hier findest du ausführliche Informationen zu jedem Modell, einschließlich der wichtigsten Funktionen, Architekturen und wie du sie in deinen Python Skripten verwenden kannst.

Einrichten deiner Umgebung

Stelle zunächst sicher, dass du Ultralytics installiert hast. Das kannst du tun, indem du Folgendes ausführst:

bash

Code kopieren


pip install ultralytics

Sobald das erledigt ist, kannst du diese Modelle in deinen Projekten verwenden. Beginnen wir mit dem Modell YOLOv8 als Beispiel.

Hauptmerkmale von YOLOv8

YOLOv8 wurde im Vergleich zu seinen Vorgängern in mehreren Punkten verbessert. Sie ist schneller und genauer und damit perfekt für Echtzeitanwendungen geeignet. Einige der wichtigsten Funktionen sind: 

  • Verbesserte Geschwindigkeit und Genauigkeit
  • Vortrainierte Gewichte für mehrere Aufgaben
  • Unterstützung für Objekterkennung, Segmentierung und Klassifizierung
  • Verbesserte Modellarchitektur für mehr Leistung

Laufen YOLOv8 in Python

Hier erfährst du, wie du mit nur wenigen Zeilen Code mit YOLOv8 loslegen kannst:

Code kopieren


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()

Das war's! Du hast gerade ein YOLOv8 Modell auf ein Bild angewendet. Diese Einfachheit macht die Ultralytics Modelle so leistungsstark und benutzerfreundlich.

Live Webcam Erkennung

Willst du YOLOv8 per Live-Webcam in Aktion sehen? Hier erfährst du, wie du es tun kannst:

python

Code kopieren


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
# Open a live webcam feed
cap = cv2.VideoCapture(0)
while True:
	ret, frame = cap.read()
	if not ret:
		break
	results = model.predict(frame)
	results.show()
	if cv2.waitKey(1) & 0xFF == ord('q'):
		break
cap.release()
cv2.destroyAllWindows()

Dieses Skript öffnet deine Webcam und wendet das YOLOv8 Modell an, um Objekte in Echtzeit zu erkennen.

Abb. 1. Nicolai Nielsen erklärt, wie die Modelle zur Objekterkennung und Segmentierung auf Ultralytics funktionieren.

Andere Modelle erforschen

Ultralytics beschränkt sich nicht nur auf YOLOv8. Sie unterstützen auch verschiedene andere Modelle wie YOLOv5, YOLO-NAS und transformatorbasierte Modelle für die Echtzeiterkennung. Jedes Modell hat seine eigenen Stärken und Anwendungsfälle.

Trafomodelle und ihr Betrieb

Das von Baidu entwickelte und von Ultralytics unterstützte Modell RT-DETR ist ein hochmoderner, durchgängiger Objektdetektor, der Echtzeitleistung und hohe Genauigkeit bietet. Es verwendet ein Conv-basiertes Backbone und einen effizienten Hybrid-Encoder für Echtzeit-Geschwindigkeit, der sich auf CUDA mit TensorRT auszeichnet und eine flexible Anpassung der Inferenzgeschwindigkeit unterstützt.

Hier erfährst du, wie du ein RT-DETR Modell erstellen kannst:

Code kopieren


from Ultralytics import YOLO
# Load a pretrained YOLOv8n model
model = YOLO("rtdetr-l.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)

"Segment Anything Models

Ultralytics bietet auch Modelle für Segmentierungsaufgaben an, wie MobileSAM und FastSAM. Diese Modelle wurden entwickelt, um alles in einem Bild zu segmentieren und so detaillierte Einblicke in die Szene zu erhalten.

Laufen FastSAM

FastSAM ist für die Echtzeit-Segmentierung optimiert, und hier erfährst du, wie du sie einsetzen kannst:

Code kopieren


import ultralytics
model = ultralytics.SAM("FastSAM-s.pt")
results = model.predict('path/to/your/image.jpg')
results.show()

Dieses Modell ist perfekt für Anwendungen, die eine schnelle und genaue Segmentierung erfordern.

Leistung und Vergleiche

Eine der großartigen Funktionen des Ultralytics Frameworks ist die Möglichkeit, verschiedene Modelle nebeneinander zu vergleichen. Du kannst leicht feststellen, welches Modell für deine Anwendung am besten geeignet ist, indem du Leistungskennzahlen wie die Inferenzgeschwindigkeit und die durchschnittliche Genauigkeit (mAP) betrachtest.

Wichtigste Schlussfolgerungen

Ultralytics macht es unglaublich einfach, Objekterkennungs- und Segmentierungsmodelle mit nur ein paar Zeilen Code auszuführen. Egal, ob du an Echtzeitanwendungen arbeitest oder hochpräzise Modelle brauchst, Ultralytics hat eine Lösung für dich. Schau dir unbedingt Nicolai Nielsens vollständiges Tutorial auf dem Ultralytics YouTube-Kanal an, um mehr Informationen und Beispiele zu erhalten.

Bleib dran für weitere Tutorials und Updates von der Ultralytics Community!

Facebook-LogoTwitter-LogoLinkedIn-LogoKopier-Link-Symbol

Lies mehr in dieser Kategorie

Lass uns gemeinsam die Zukunft
der KI gestalten!

Beginne deine Reise in die Zukunft des maschinellen Lernens