Ultralytics年次イベントのハイライトとYOLO Visionのハイブリッド体験をお楽しみください。Ultralytics YOLO11 発表、魅力的なパネルなどをご紹介します。
Ultralytics年次イベントのハイライトとYOLO Visionのハイブリッド体験をお楽しみください。Ultralytics YOLO11 発表、魅力的なパネルなどをご紹介します。
9月27日、Ultralytics 毎年恒例のハイブリッド・イベント「YOLO Vision 2024 (YV24)」にAIとコンピュータ・ビジョンのコミュニティを集めました。マドリッドのGoogle for Startups Campusで開催され、世界中に配信されたこのイベントには、専門家、開発者、愛好家が集まり、Ultralytics 新モデルYOLO11 、ビジョンAIの最新の進歩について議論しました。このイベントのライブストリームは、すでに5,400回以上再生され、10,600回以上のインプレッションと469.5時間以上の視聴時間を記録し、世界中のイノベーターを魅了しました。
YV24は、主催者であるオイシン・ルニー氏の温かい歓迎で始まりました。彼は、コミュニティとつながりの重要性を強調し、「私は、素晴らしいアイデアと素晴らしいコミュニティの力を信じていますUltralytics
この記事では、魅力的なパネルディスカッションから コンピュータビジョンの魅力的な実世界での使用例まで、YOLO Vision 2024の主なハイライトをピンポイントでご紹介します。また、エッジAIからハードウェアアクセラレーションまでの技術的な講演や、イベントを成功に導いたネットワーキングやコミュニティ形成の瞬間についてもご紹介します。AIのイノベーション、重要な発表、ビジョンAIの将来など、このYOLO Vision 2024のイベントレポは、重要なポイントをすべて網羅しています!
YOLO ビジョン2024の前に予告されていた製品発表が、Ultralytics創設者兼CEOであるグレン・ジョーチャーによる最初の基調講演で発表され、ついに明らかになった。グレンは次のように紹介した。 Ultralytics YOLO11数ヶ月前から開発が進められていた次世代コンピューター・ビジョン・モデルである。この発表の興奮をさらに盛り上げるために、グレンは後にThe Ravit Showのインタビューに応じ、 YOLO11開発についての洞察を語りました。
彼の基調講演の中で、Glennはまた、同社の歩みについて、素粒子物理学のバックグラウンドから、宇宙を理解することへの彼の魅了が最終的に機械学習とコンピュータビジョンにつながった経緯を語りました。

彼は、物理学の研究者が粒子の相互作用を分析する初期の仕事が、コンピューター・ビジョンにおける物体検出に似ていると説明した。彼の好奇心と最先端技術への意欲が、最終的に Ultralytics YOLOv5.講演を通して、グレンはオープンソースコミュニティにおけるコラボレーションと貢献の重要性を強調し、フィードバックを提供し、YOLOv5 Ultralyticsの改良に貢献してくれた世界中の開発者に感謝した。 Ultralytics YOLOv8の改良に貢献してくれた世界中の開発者に感謝した。
そして、 Ultralytics YOLO11主な特徴を紹介し、以前のモデルよりも高速で、より正確で、より効率的であることを説明した。実際、YOLO11 11mはYOLOv8m 22%少ないパラメータで、COCO データセットの精度を向上させており、スピードと精度が重要なリアルタイム・アプリケーションに最適です。
グレンは、「私たちは全部で30モデルを発表し、そのうち25モデルはオープンソースで、5つの異なるタスクに対して5つの異なるサイズで発表します」と発表の規模を強調した。タスクは、画像分類、物体検出、インスタンス分割、ポーズ推定、オリエンテッドバウンディングボックスだ。"企業向けには、100万枚の画像からなる独自のデータセットで訓練されたロバストモデルが来月から利用可能になると発表した。言うまでもなく、この発表はイベントの幕開けを盛り上げ、参加者は製造業や 自動運転車などの分野を革新するYOLO11可能性についてもっと知りたいと思った。
YOLO ビジョン2024では、オイシン・ルニーがモデレーターを務めるパネルディスカッションが行われ、AI、コンピュータービジョン、コミュニティ形成に関するさまざまな見識が示された。
最初のパネルには、グレン・ジョーチャー、邱静(Ultralytics YOLO モデル開発の中心人物)、そして共著者である清華大学の王蒼が登壇した。 YOLOv10.パネルディスカッションでは、生成AIと コンピュータ・ビジョンの 最近の発展について 、その類似点、相違点、それぞれの分野が他方に与えた影響に焦点を当てながら議論された。最近の大規模言語モデル(LLM)の台頭にもかかわらず、パネルディスカッションでは、伝統的なコンピュータ・ビジョンが、ヘルスケアなどの産業における特定のタスクには依然として不可欠であることが指摘された。
次のパネルでは、AIリーダーシップにおいて女性が直面する課題に取り組み、スピーカーが登壇した:Ultralytics成長担当ディレクターであるポーラ・デレンガー氏、SaaSの元CPO兼COOであるブルーナ・デ・ギマランエス氏、Latinas in TechMadridの支部長であるマリアナ・エルナンデス氏、Dare to Dataの創設者であるクリスティーナ・スタソポウラス氏がそれぞれの経験を語り、メンターシップの重要性や、女性がリーダーシップを発揮するために積極的に行動する必要性について議論した。ヘルナンデス氏は、「物事が自分のために起こるのを待つのではなく、積極的に行動しましょう」とアドバイスし、聴衆の女性たちに自分を主張し、積極的にチャンスを追い求めるよう促した。パネルディスカッションでは、より協力的な職場環境を作ることの価値についても話し合われた。

最後のパネルでは、強力なコミュニティを構築することで、AIのイノベーションをどのように促進できるかを探求しました。Burhan Qaddoumi、Harpreet Sahota、Bart Farrellは、オンラインと対面イベントの両方で、技術的なオーディエンスと関わる方法について議論しました。Farrellの「彼らがいる場所で彼らに会う必要がある」という洞察は、コラボレーションと学習の共有を促進するために、コミュニティメンバーの条件でつながることの重要性を強調しました。

YV24のいくつかの講演では、YOLO モデルが様々な業界で現実の課題を解決するためにどのように応用されているかが明らかにされた。ポッドキャスト「AI Master Group」のホストであるジム・グリフィンは、YOLOv8 モデルを使ってカリフォルニアの海岸線沿いでサメの動きを ドローン監視するプロジェクトについて語った。このシステムは、ライフガード、サーフショップのオーナー、保護者に警告を発し、海から200フィート上空からサメを検知することで、海水浴客の安全を確保している。グリフィンは、真の課題はAIモデルそのものではなく、モデルの訓練に必要な大規模なドローン飛行とデータ収集であると説明した。

同様に、The Main Branchの デビッド・スコット氏は、コンピュータ・ビジョンの単純な物体検出から行動分析への拡大について議論した。彼の講演では、牛の行動を追跡したり、小売店での不審な行動を特定するような実際の応用例が紹介された。スコット氏は、YOLOv8 、食べる、飲む、歩くといった特定の行動を分析することで、牛の健康状態をモニターするためにどのように使用できるかを紹介した。
さらに、NASCO Feeding MindsのOusman Umar氏による、特に心に響く基調講演がありました。彼は、自身の組織がガーナでIT教育を提供することで、いかに人々の生活を変えているかを語りました。彼の財団は17のICTセンターを設立し、65,000人以上の学生を訓練しており、不法移民などの問題に対処するために、地元の技術職を創出することを目標としています。Umar氏の力強いストーリーは、教育とテクノロジーが共に、恵まれない地域社会に永続的な変化をもたらすことができることを伝えました。
YV24では、AIとハードウェアがどのように融合し、新たなアイデアを生み出すかに焦点を当てたさまざまな講演も行われた。以下のような企業の専門家が登壇した。 IntelソニーNVIDIAYOLO 専門家が、エッジデバイスへのYOLO モデルの導入とパフォーマンスの最適化について講演した。Intel Dmitriy Pastushenkov氏とAdrian Boguszewski氏は、自社のハードウェアがNPU、CPU、GPU どのようにYOLO モデルをサポートしているかについて概説し、ソニーのAmir Servi氏とWei Tang氏は、エッジAIを効率的に展開するためにYOLO AITRIOSプラットフォームとどのように統合されているかについて紹介した。NVIDIA Guy Dahan氏は、YOLO モデルの推論を向上させるためのGPU アーキテクチャの活用について語った。

クアルコムのような他の企業 Hugging FaceやLightning AIなどの他の企業も、開発者がYOLO モデルを簡単に統合して展開できるようにするプラットフォームを紹介した。クアルコムのDevang Aggarwal氏は、Qualcomm AI Hubを通じてYOLOv8 ようなモデルをSnapdragonデバイスに最適化する方法を紹介しました。
同様に、Hugging Face Pavel Lakubovskii氏は、彼らのオープンソースツールがどのようにYOLOv8 ようなモデルを様々なワークフローにシームレスに統合することができるかを説明し、Lightning AIのLuca Antiga氏は、開発者がどのようにYOLOv8 ようなモデルをコードレベルで簡単に組み込むことができるかを説明し、より迅速なプロトタイピングと反復を可能にした。
YV24までの1週間、Ultralytics チームはマドリードに集まり、ワークショップ、共同ミーティング、オフサイト活動などを行いました。これらのアクティビティは仕事を超え、より強い人間関係を育み、イベントを前にポジティブな雰囲気を作り出しました。お祝いのアフターパーティーで締めくくられた参加者と講演者は、ネットワークを広げ、重要な収穫を共有し、将来のコラボレーションを模索する機会を得ました。チームワークと仲間意識の融合により、YV24はプロフェッショナルな成功を収め、総合的に思い出深い体験となった。

YV24は、イノベーション、コラボレーション、そしてコンピュータビジョンの未来を一堂に集めました。YOLO11発表、魅力的なパネルディスカッション、AIハードウェアとエッジソリューションに関するディスカッションなど、このイベントは、ビジョンAIがどのように変化をもたらすことができるか、AIの進歩に追いつくために技術がどのように変化しているかに焦点を当てました。また、コミュニティ内のつながりも強化された。専門家と愛好家がアイデアを共有し、コンピューター・ビジョンとYOLO可能性を探求した。イベントは楽しいクイズセッションで締めくくられ、Ultralytics パーカーがプレゼントされました。
当社のGitHubリポジトリにアクセスし、活気のあるコミュニティとつながって、AIの詳細をご覧ください。Vision AIがヘルスケアや農業などの分野でイノベーションをどのように再定義しているかをご覧ください。🚀