探索 Ultralytics 年度活动的亮点,重温 YOLO Vision 混合体验。我们将介绍 Ultralytics YOLO11 的发布、引人入胜的小组讨论等等。
探索 Ultralytics 年度活动的亮点,重温 YOLO Vision 混合体验。我们将介绍 Ultralytics YOLO11 的发布、引人入胜的小组讨论等等。
9 月 27 日,Ultralytics 将 AI 和 计算机视觉 社区聚集在一起,举办了我们激动人心的年度混合活动 YOLO Vision 2024 (YV24)。该活动在马德里的 Google for Startups 园区举办,并在全球范围内直播,汇集了专家、开发人员和爱好者,共同讨论视觉 AI 的最新进展,例如新的 Ultralytics YOLO11 模型。该活动的直播已达到超过 5,400 次观看,超过 10,600 次展示和 469.5 小时的观看时长,吸引了世界各地的创新者。
YV24 在主持人 Oisin Lunny 的热情欢迎中拉开帷幕,他强调了社区和联系的重要性,并表示:“我深信伟大的想法和伟大的社区的力量,Ultralytics 通过 YOLO Vision 所创造的正是如此——一个由拥有伟大想法的伟大的人们组成的伟大社区。”
在本文中,我们将重点介绍 YOLO Vision 2024 的主要亮点,从 引人入胜的小组讨论 到引人入胜的现实世界 计算机视觉用例。我们还将探讨从边缘 AI 到 硬件加速 的技术讲座,以及使本次活动取得成功的社交和社区建设时刻。无论您是对 AI 创新、重要公告还是视觉 AI 的未来感兴趣,本次 YOLO Vision 2024 活动回顾都涵盖了所有重要的要点!
在 YOLO Vision 2024 之前预告的产品发布终于在 Ultralytics 创始人兼 CEO Glenn Jocher 的主题演讲中揭晓。Glenn 推出了 Ultralytics YOLO11,标志着新一代计算机视觉模型的诞生,该模型已经开发了几个月。为了增加发布的兴奋感,Glenn 后来接受了 The Ravit Show 的采访,并分享了关于 YOLO11 开发的见解。
在主题演讲中,Glenn 还分享了公司的发展历程,从他粒子物理学的背景,以及他对理解宇宙的着迷如何最终引导他走向机器学习和计算机视觉。

他解释说,他早期在物理学领域(研究人员分析粒子相互作用)的工作与计算机视觉中的目标检测类似。他对尖端技术的好奇心和工作热情最终促成了 Ultralytics YOLOv5 的创建。在整个演讲过程中,Glenn 强调了协作和在开源社区中贡献的重要性,并感谢全球开发人员提供的反馈,这些反馈帮助改进了 YOLOv5 和 Ultralytics YOLOv8。
然后,他介绍了 Ultralytics YOLO11 的主要特性,并解释说它比以前的模型更快、更准确、更高效。事实上,YOLO11m 使用的参数比 YOLOv8m 少 22%,但在 COCO 数据集上提供了更好的准确性,这使得 YOLO11 非常适合速度和准确性至关重要的实时应用。
Glenn 强调了此次发布的规模,他说:“我们总共发布 30 个模型,其中 25 个是开源的,针对五种不同的 任务 提供五种不同的尺寸。 这些任务包括 图像分类、目标检测、实例分割、姿态估计 和 旋转边界框检测。” 在企业方面,他宣布下个月将推出在包含 100 万张图像的专有 数据集 上训练的强大模型。 无需多说,这一消息为本次活动拉开了一个精彩的序幕,让与会者渴望了解 YOLO11 的潜力 如何在 制造业 和 自动驾驶汽车 等领域进行创新。
在 YOLO Vision 2024 上,由 Oisin Lunny 主持的小组讨论提供了对人工智能、计算机视觉和社区建设的各种见解。
第一个小组由 Glenn Jocher、Jing Qiu(Ultralytics 中 YOLO 模型开发的关键人物)和来自清华大学的 Ao Wang 组成,他们共同撰写了 YOLOv10。该小组讨论了生成式 AI 的最新发展和计算机视觉,重点关注它们的异同以及每个领域对另一个领域的影响。尽管最近大型语言模型 (LLM) 兴起,但该小组指出,传统的计算机视觉对于医疗保健等行业的特定任务仍然至关重要。
下一个小组讨论聚焦于女性在人工智能领导领域面临的挑战,Ultralytics 的增长总监 Paula Derrenger、前 SaaS 首席产品官兼首席运营官 Bruna de Guimarães、Latinas in Tech 马德里分会负责人 Mariana Hernandez 以及 Dare to Data 创始人 Christina Stathopoulous 分享了她们的经验,同时讨论了指导的重要性以及女性在寻求领导职位时需要采取积极措施。Hernandez 建议说:“要积极主动,不要等待事情发生在你身上”,并鼓励在场的女性坚持自我,积极寻求机会。小组还讨论了创建更具支持性的工作环境的价值。

最后的小组讨论探讨了如何建立强大的社区来促进 AI 创新。Burhan Qaddoumi、Harpreet Sahota 和 Bart Farrell 讨论了如何与在线和面对面活动的专业受众互动。Farrell 的见解“你必须在他们所在的地方与他们会面”强调了按照社区成员的意愿与他们建立联系以鼓励协作和共享学习的重要性。

YV24的几次演讲阐明了YOLO模型如何被应用于解决各个行业的实际挑战。Jim Griffin,AI Master Group podcast的主持人,谈到了一个项目,该项目使用YOLOv8模型通过无人机监视来监控加利福尼亚海岸线沿线的鲨鱼活动。该系统会提醒救生员、冲浪用品店主和家长,通过从海面上方200英尺处检测鲨鱼来确保海滩游客的安全。Griffin解释说,真正的挑战不是AI模型本身,而是训练模型所需的广泛无人机飞行和数据收集。

同样,来自 The Main Branch 的 David Scott 讨论了计算机视觉从简单的目标检测到行为分析的扩展。他的演讲重点介绍了现实世界的应用,例如跟踪牛的行为和识别零售店中的可疑活动。Scott 分享了如何使用 YOLOv8 通过分析特定行为(如饮食、饮水和行走)来监测牛的健康状况。
此外,NASCO Feeding Minds 的 Ousman Umar 发表了特别衷心的主题演讲,他分享了他的组织如何通过在加纳提供 IT 教育 来改变人们的生活。他的基金会已经建立了 17 个 ICT 中心,培训了超过 65,000 名学生,目标是创造本地技术工作岗位,以帮助解决非法移民等问题。Umar 的有力故事传达了 教育和技术 如何共同推动服务欠缺社区的持久变革。
YV24 还重点介绍了关于人工智能和硬件如何结合以激发新想法的各种演讲。来自 Intel、Sony 和 NVIDIA 等公司的专家讨论了如何在边缘设备上部署 YOLO 模型并优化性能。Dmitriy Pastushenkov 和 Adrian Boguszewski 代表 Intel 概述了他们的硬件如何支持 YOLO 模型 在 NPU、CPU 和 GPU 上的运行,而 Sony 的 Amir Servi 和 Wei Tang 分享了 YOLO 如何与 AITRIOS 平台集成以实现高效的边缘 AI 部署。Guy Dahan 代表 NVIDIA 介绍了如何使用他们的 GPU 架构来提高 YOLO 模型推理的性能。

其他公司,如Qualcomm、Hugging Face和Lightning AI也展示了他们的平台如何使开发人员能够更轻松地集成和部署 YOLO 模型。Devang Aggarwal(来自 Qualcomm)介绍了如何通过 Qualcomm AI Hub 优化 YOLOv8 等模型,使其适用于骁龙设备。
同样,Hugging Face 的 Pavel Lakubovskii 介绍了他们的开源工具如何实现将 YOLOv8 等模型无缝集成到各种工作流程中,而 Lightning AI 的 Luca Antiga 向我们介绍了开发人员如何在代码级别轻松地整合 YOLOv8 等模型,从而加快原型设计和迭代。
在 YV24 之前的那个星期,Ultralytics 团队聚集在马德里,参加了一系列的研讨会、协作会议和非工作场所活动。这些活动超越了工作本身,培养了更牢固的关系,并在活动前营造了积极的氛围。最后,与会者和演讲者参加了一个庆祝晚会,他们有机会建立联系、分享主要收获并探索未来的合作机会。团队合作和友谊的结合使 YV24 成为一次专业的成功和一次全面的难忘经历。

YV24 汇集了创新、协作以及对计算机视觉未来的展望。随着 YOLO11 的发布、引人入胜的小组讨论以及关于 AI 硬件和边缘解决方案的讨论,本次活动重点关注视觉 AI 如何发挥作用,以及技术如何变革以跟上 AI 的发展。它还加强了社区内的联系。专家和爱好者们分享了想法,并探索了计算机视觉和 YOLO 的潜力。活动以一个有趣的问答环节结束,Ultralytics 连帽衫作为奖品,让每个人都对未来 YOLO11 等更多创新充满期待。
访问我们的 GitHub 存储库 并与 我们蓬勃发展的社区 联系,以了解有关 AI 的更多信息。了解视觉 AI 如何重新定义 医疗保健 和 农业 等领域的创新。🚀