Entdecken Sie Einblicke von der YOLO VISION 2022 mit Vorträgen über KI in verschiedenen Branchen und den neuesten Entwicklungen im Bereich des maschinellen Lernens von Ultralytics .

Entdecken Sie Einblicke von der YOLO VISION 2022 mit Vorträgen über KI in verschiedenen Branchen und den neuesten Entwicklungen im Bereich des maschinellen Lernens von Ultralytics .

Unsere allererste YOLO VISION fand am 27. September 2022 statt. Vom Einzug der KI in die Automobilindustrie bis zur Echtzeitanalyse der Obstproduktion hörten wir inspirierende Vorträge von YOLOv5 aus allen Bereichen.
Das Besondere an dieser Veranstaltung war die große Vielfalt der Referenten. Zusammen mit Vertretern von 18 teilnehmenden Unternehmen gaben die Redner Einblicke in jeden Aspekt des ML-Prozesses. Unter ihnen sind unsere Partnerunternehmen wie Comet, Deci, ClearML, Paperspace, und Roboflowsowie andere im Open-Source-Bereich wie die chinesischen Giganten Baidu, Meituan und OpenMMLabs.
Sie möchten wissen, wie YOLOv5 entstanden ist und welche Methoden in der Forschung und Entwicklung angewandt werden?
Gehen Sie mit Glenn Jocher, unserem Gründer und CEO hier bei Ultralytics, und Ayush Chaurasia, unserem ML-Ingenieur, ins Detail des ganzheitlichen Ansatzes, der zur Auswahl der besten Architekturen verwendet wird.
Großartige Modellarchitekturen wie YOLOv5 sind entscheidend, um beim maschinellen Lernen brauchbare Ergebnisse zu erzielen. Aber Modelle sind nur so gut wie ihre Datensätze. Joseph Nelson, CEO und Mitbegründer unseres Partners Roboflow, zeigte, wie sich die Qualität der Datensätze auf die Produktionsergebnisse auswirkt. Die Erkenntnisse beruhen auf über 10.000 Bildverarbeitungs-Trainingsaufträgen und der Open-Source-Community von Roboflow Universe mit über 90.000 Datensätzen.
In seiner Session zeigte Joseph auch wichtige Unterschiede zwischen Forschung und Produktion auf, die es Entwicklern ermöglichen, ihre Datensätze zu "hacken", um schneller aussagekräftige Ergebnisse zu erhalten.
Erfahren Sie mehr über die Qualität von Datensätzen und deren Einfluss darauf, Ihr CV-Modell produktionsreif zu machen!
Jede traditionelle Software durchläuft heutzutage vor der Bereitstellung umfassende Tests verschiedener Art, wodurch das Risiko von Produktionsfehlern erheblich reduziert wird.
Wie können wir diese Ideen an die statistisch orientierte Welt des ML anpassen?
Aishwarya Srinivasan, Data Scientist bei Google und Open Source Developer Advocate bei Deepchecks, spricht über die Begeisterung, die hinter der Entwicklung von Lösungen steckt, die reale Herausforderungen lösen können. Bei Google entwickelt sie maschinelle Lernlösungen für Kundenanwendungsfälle und nutzt dabei zentrale Google wie TensorFlow, DataFlow und AI Platform.
Aishwarya kam zu uns auf die YOLO VISION, um über Best Practices und praktische Tipps für das umfassende Testen und Analysieren Ihres Modells zu sprechen. Schauen Sie sich ihren Vortrag an, um den Unterschied zwischen dem Testen von Software und dem Testen von ML zu erfahren.
Wir haben ein bahnbrechendes Panel veranstaltet, bei dem wir andere Mitglieder der YOLO sowie andere führende Open-Source-Vision-KI-Architekturen in diesem Bereich zusammengebracht haben.
Hier diskutierten YOLOv6 von Meituan, MMDetection von OpenMMLab CN und PaddlePaddle von Baidu, Inc. zusammen mit YOLOv5 von Ultralytics über Open-Source-Projekte, die die Zukunft der KI ermöglichen.
Dies war das erste Mal überhaupt, dass diese Top-Vision-KI-Repositories die Bühne teilten. Wenn Sie dieses Panel verpasst haben, sehen Sie sich dieses Video an, in dem Bo Zhang, Glenn Jocher, Guanzhong Wang, Wenwei Zhang und Yixin Shi ihre Wahl der Frameworks, Designs, die Entwicklung der Repository-Struktur und mehr diskutieren!
Wie unser CEO Glenn Jocher sagt: „Wir alle müssen voneinander lernen, von unseren Werkzeugen und Erfahrungen.“
Visuelle Datenverwaltungssysteme weisen in allen Aspekten Mängel auf: Speicherung, Qualität, Suche, Analyse und Visualisierung. Infolgedessen verlieren Unternehmen und Forscher Produktzuverlässigkeit, Arbeitsstunden, verschwendeten Speicherplatz, Rechenleistung und vor allem die Fähigkeit, das volle Potenzial ihrer Daten auszuschöpfen.
In diesem Vortrag hat uns Dr. Danny Bickson gezeigt, wie man dieses Problem mit seinem beliebten, kostenlosen GitHub-Tool Fastdup lösen kann.
FastDup ist ein Tool, um Einblicke aus einer großen Bildersammlung zu gewinnen. Es kann Anomalien, doppelte und nahezu doppelte Bilder, Ähnlichkeitscluster finden und das normale Verhalten und die zeitlichen Interaktionen zwischen Bildern erlernen. Es kann für intelligentes Subsampling eines qualitativ hochwertigeren Datensatzes, die Entfernung von Ausreißern und die Erkennung von Neuheiten neuer Informationen verwendet werden, die zur Kennzeichnung gesendet werden sollen.
Danny Bickson ist ein Experte für Big-Data-Analytik und Machine Learning im großen Maßstab und verfügt über mehr als 15 Jahre Erfahrung in der Hightech-Industrie. Sie kennen ihn vielleicht von Turi, einer Machine-Learning-Plattform, die Big-Data-Analytikprodukte für ihre Benutzer erstellt. Im Jahr 2016 wurde Turi von Apple übernommen, wo Dr. Danny Bickson mehrere Jahre als Senior Data Science Manager tätig war.
Und schließlich war es uns eine Freude, den Start unseres Ultralytics HUB offiziell bekannt zu geben!
Ultralytics HUB ist unsere no-code Lösung zum Trainieren und Bereitstellen von KI-Modellen in drei einfachen Schritten! Erwecken Sie Ihre Modelle zum Leben, indem Sie die Daten auswählen, aus denen sie lernen sollen.
Unsere Experten und Schöpfer der Tools, Kalen Michael und Sergio Sánchez, führten uns durch Ultralytics HUB und erklärten uns alle Merkmale und Funktionen. Erfahren Sie mehr über Ultralytics HUB und beginnen Sie mit der kostenlosen Erstellung Ihrer Modelle!
Finden Sie alle aufgezeichneten Sitzungen auf unserem YouTube-Kanal!
Wir sind begeistert von der Beteiligung an der YOLO VISION und freuen uns, dass wir eine Veranstaltung schaffen konnten, an der Experten aus der ganzen Welt teilnehmen können, um mehr über Vision AI zu erfahren. Bleiben Sie mit uns auf dem Laufenden, indem Sie uns auf den sozialen Medien folgen. Wir sehen uns nächstes Jahr auf der YOLO VISION 2023!