了解在YOLO Vision 2024 上展示的 SharkEye 如何利用Ultralytics YOLOv8 进行实时物体检测和海滩安全。

了解在YOLO Vision 2024 上展示的 SharkEye 如何利用Ultralytics YOLOv8 进行实时物体检测和海滩安全。

监测动物在其自然栖息地中的行为(无论是农场里吃草的牛还是在海岸附近移动的鲨鱼)对于它们的**安全和福祉**一直非常重要。 然而,手动观察它们并非易事。 这通常需要数小时的耐心和专注,因为观察员必须密切关注行为或运动的任何变化。 即使这样,也很容易错过细微但重要的迹象。
由于人工智能(AI)的介入,这一过程变得更快、更智能、更高效,在提高准确性的同时也减轻了人类观察者的负担。特别是,计算机视觉可用于track 动物、发现危险并实时做出决策。过去需要数小时才能完成的任务,现在几分钟就能完成,为了解动物行为开辟了新途径。
在由Ultralytics 主办的年度混合活动YOLO Vision 2024(YV24)上,专家和创新者齐聚一堂,探讨人工智能如何应对日常挑战。展示的主题包括实时物体检测和动物监控方面的进步,展示了人工智能如何在各个领域提高安全性和效率。
活动的亮点之一是人工智能大师集团创始人吉姆-格里芬(Jim Griffin)的演讲,他在演讲中演示了Vision AI如何在鲨鱼靠近海岸之前探测到它们,从而使海滩更加安全。他解释了他们如何使用 Ultralytics YOLOv8来实时准确地识别鲨鱼,即使是在波涛汹涌、眩光和水下障碍物等恶劣条件下。
在本文中,我们将仔细研究 SharkEye 项目,并分享 Jim 演讲中的有趣见解。
吉姆首先介绍了加利福尼亚州著名的冲浪胜地帕达罗海滩(Padaro Beach),冲浪者和鲨鱼经常在这里共处一室。他强调了鲨鱼探测的真正挑战,并分享道:"当然,如果鲨鱼咬了你,很容易就能detect ,所以我们要做的是事先识别鲨鱼。

SharkEye的创建是为了解决这个问题,并得到了加州大学圣巴巴拉分校的支持。Jim描述了如何使用带有高分辨率AI相机的无人机在水面上方约200英尺处飞行,实时扫描海洋。
如果检测到鲨鱼,短信警报会发送给大约 80 人,包括救生员、冲浪商店老板和任何注册接收更新的人。 Jim 指出,这些即时通知如何实现快速响应,从而在鲨鱼靠近海岸时确保海滩游客的安全。
Jim还提到,SharkEye 具有一个实时仪表板,用户可以在其中查看鲨鱼检测统计数据。例如,在 12 周内,该系统识别出两条大型鲨鱼和 15 条较小的鲨鱼,平均每周略多于一条鲨鱼。
然后,他介绍了 Neil Nathan,这位科学家领导了 SharkEye 背后的工作。尽管 Nathan 拥有环境研究背景,而非计算机科学背景,但他成功地领导了这个项目。Jim 强调,像 SharkEye 中使用的那些现代人工智能工具,其设计宗旨是易于访问,使非技术背景的人员也能够开发有影响力的解决方案。
吉姆进一步详细介绍了 SharkEye 的功能,以及鲨鱼检测解决方案如何不仅仅涉及简单的物体检测任务。它必须处理动态的、不可预测的条件,如漂浮的海草,这些海草很容易被误认为是鲨鱼。与发现固定物体不同,识别鲨鱼需要精确性和适应性,因此YOLOv8 成为了理想的选择。
YOLOv8 的另一个优势是可以部署在无人机上,而无需依赖云服务器。吉姆解释了这种方法如何使鲨鱼眼能够发送即时警报,这是在不可预测的海洋条件下确保及时响应的重要部分。
在强调了 SharkEye 的工作原理以及其背后的协作努力之后,Jim 展示了一个现场演示。
吉姆-格里芬(Jim Griffin)在现场演示中首先向观众介绍了一个熟悉的例子--Ultralytics YOLO 模型的 "hello world "代码片段。仅用六行Python 代码,他就展示了预先训练好的Ultralytics YOLOv8 模型如何毫不费力地detect 图像中的一辆公共汽车。

他的演示使用的是YOLOv8 Nano 型号,这是一种轻型型号,适用于无人机等低功耗设备。鲨鱼眼(SharkEye)中也使用了相同的模型,用于实时检测鲨鱼。
为了提供更多背景信息,吉姆提到演示中的模型是在COCO128 上训练的,COCO128 是广泛使用的COCO 数据集的一个较小的子集。COCO 数据集包含 80 个不同物体类别的 20,000 多张图像。虽然COCO128 可以很好地进行快速演示,但他指出,SharkEye 需要更强大的东西--一个特定于应用的鲨鱼检测数据集,能够处理现实世界中复杂的场景。
据 Jim 介绍,SharkEye 项目中最困难的部分不是训练 AI 模型,而是收集正确的数据。他评论道:“这个项目的主要工作不是 AI,而是五年时间里驾驶无人机,从视频中筛选图像,并进行适当的标记。”
他描述了团队如何在帕达罗海滩收集了 15,000 张图像。每张图像都必须手动标记,以区分鲨鱼、海藻和水中的其他物体。虽然这个过程缓慢且要求高,但它为之后的一切奠定了基础。

数据集准备就绪后,Ultralytics YOLOV8 对其进行了定制训练。吉姆说:"实际训练并不难,在 T4 GPU(图形处理单元)上只花了 20 个小时。他还补充说,如果使用更强大的硬件(如 A100 GPU),时间可以缩短到 5 个小时。
然后,Jim讨论了SharkEye的性能是如何评估的。他说明了关键指标是精度——系统识别实际鲨鱼的准确程度。SharkEye实现了令人印象深刻的92%的精度,证明该模型在复杂的海洋环境中能够高效准确地识别鲨鱼。
吉姆深入探讨了精确率的重要性,并阐明了为什么在这种情况下精确率比召回率更重要。“大多数时候,人们对召回率更感兴趣,尤其是在医疗保健等领域,因为遗漏阳性病例可能会非常严重。但在这个案例中,我们不知道有多少鲨鱼在那里,所以我们关心的是精确率,”他解释说。SharkEye 通过专注于精确率来确保最大限度地减少误报,从而使救生员和其他响应人员能够快速采取行动。

他总结发言时,将人工智能与人类的表现进行了比较,指出 SharkEye 的 92% 精度远远超过了人类专家 60% 的准确率。他强调了这种差距,并说:“这是因为我们是人类。无论你或我多么专业,如果我们要整天坐在屏幕前寻找鲨鱼,最终,我们会让自己的思绪游离。” 与人类不同,人工智能模型不会疲劳或分心,使其成为需要持续监控任务的可靠解决方案。
吉姆-格里芬(Jim Griffin)的演讲中有一句引人入胜的话:"有一天,六行代码就能挽救你的生命",这句话完美地诠释了人工智能的先进性和可及性。Ultralytics YOLO 模型正是基于这一理念而创建的,它使各种规模的开发人员和企业都能使用最先进的计算机视觉技术。 Ultralytics YOLO11在此基础上实现了更快的推断和更高的准确性。
以下是YOLO11 与众不同之处的简要介绍:
这些功能使YOLO11 非常适合在动态环境中跟踪动物行为,无论是在农场还是在野外。
视觉人工智能的进步为各个领域提供了实用工具,从而使应对现实世界的挑战变得更加容易。例如,YOLO11 等计算机视觉模型可用于实时监控和跟踪动物,即使在恶劣条件下也是如此。
吉姆-格里芬(Jim Griffin)在 YV24 上发表的主题演讲展示了如何利用YOLOv8 以最少的编码解决复杂的问题。SharkEye 项目将无人机与人工智能相结合,用于实时检测鲨鱼,展示了技术如何改善海滩安全。
这是一个引人入胜的案例研究,说明了易于访问的人工智能如何使来自不同背景的人们能够创建有效的解决方案。随着人工智能的不断发展,它正在改变各行各业,并使个人能够利用其潜力,使世界变得更安全、更智能、更高效。
加入我们的社区,探索我们的GitHub 仓库,深入了解人工智能。从农业中的计算机视觉到自动驾驶汽车中的人工智能,了解这些技术如何推动创新。查看我们的许可选项,立即开始您的人工智能项目!