跟踪和监控计算机视觉实验(训练机器解释和理解视觉数据)是开发和微调视觉人工智能模型(如Ultralytics YOLO11)的关键部分。这些实验通常需要测试不同的关键参数,并记录多个模型训练运行的指标和结果。这样做有助于分析模型性能,并根据数据对模型进行改进。
如果没有一个定义明确的实验跟踪系统,比较结果和更改模型就会变得复杂并导致错误。事实上,将这一过程自动化是一个很好的选择,可以确保更好的一致性。
这正是 Ultralytics 支持的DVCLive 集成所要实现的目标。DVCLive 提供了一种简化的方式,可在单一工作流程中自动记录实验细节、可视化结果并管理模型性能跟踪。
在本文中,我们将讨论如何在训练 Ultralytics YOLO11 时使用 DVCLive 集成。我们还将了解它的优势,以及它如何使实验跟踪更容易,从而更好地开发视觉人工智能模型 。
由 DVC(数据版本控制)创建的 DVCLive 是一款可靠的开源工具,专为跟踪机器学习实验而设计。DVCLive Python 库提供了一个实时实验记录器,使人工智能开发人员和研究人员跟踪其实验的指标和参数成为可能。
例如,它可以自动记录关键模型性能指标,比较不同训练运行的结果,并可视化模型性能。这些功能使 DVCLive 能够帮助您维护结构化和可重现的机器学习工作流程。
DVCLive 集成易于使用,可通过提供清晰、易懂的数据可视化和分析工具来改进计算机视觉项目。以下是 DVCLive 的其他一些主要功能:
当您阅读Ultralytics 文档并探索可用的集成时,您可能会问自己:DVCLive集成与众不同的地方是什么?是什么让 DVCLive 集成与众不同,为什么我的工作流程要选择它?
TensorBoard和MLflow等集成还提供了跟踪指标和可视化结果的工具,因此,了解使该集成脱颖而出的独特品质至关重要。
以下是 DVCLive 成为 Ultralytics YOLO 项目理想选择的原因:
使用 DVCLive 跟踪 Ultralytics YOLO11 模型训练比您想象的要简单得多。一旦安装和配置了必要的库,您就可以快速开始自定义训练 YOLO11 模型。
训练结束后,您可以调整关键设置,如历时(模型处理整个数据集的次数)、耐心(如果没有改进,要等多久才停止)和目标图像大小(用于训练的图像的分辨率),以提高准确性。然后,您可以使用 DVCLive 的可视化工具来比较不同版本的模型并分析其性能。
如需更详细地了解模型培训流程和最佳实践,请查看我们的 Ultralytics YOLO 模型定制培训文档。
接下来,让我们一起来了解如何在定制培训 YOLO11 时安装和使用 DVCLive 集成。
在开始培训 YOLO11 之前,您需要安装Ultralytics Python 软件包和 DVCLive。这种集成的设计方式使两个库在默认情况下无缝协作,因此您无需担心复杂的配置。
如下图所示,只需一条 Pip 命令就能在几分钟内完成整个安装过程,Pip 是一种用于安装 Python 库的软件包管理工具。
安装完软件包后,您就可以设置环境并添加必要的凭证,以确保 DVCLive 顺利运行。设置一个 Git 仓库也有助于跟踪代码和对 DVCLive 设置的任何更改。
如需详细的分步说明和其他有用提示,请查看我们的《安装指南》。如果您在安装所需软件包时遇到任何问题,我们的 "常见问题指南 "中的解决方案和资源可帮助您解决。
完成 YOLO11 模型训练后,您可以使用可视化工具深入分析结果。具体来说,您可以使用 DVC 的应用程序接口来提取数据,并用 Pandas(Python 库,使数据处理更容易,如将数据整理成表格以便分析和比较)进行处理,以便更轻松地进行处理和可视化。
要以更互动、更直观的方式探索结果,您还可以尝试使用 Plotly 的平行坐标图(一种显示不同模型参数和性能结果之间联系的图表)。
最终,您可以利用这些可视化的洞察力,在优化模型、调整超参数或进行其他修改以提高整体性能方面做出更好的决策。
既然我们已经了解了如何使用 DVCLive 集成安装和可视化 YOLO11 培训结果,那么就让我们来探索一下该集成可以增强的一些应用。
当涉及到农业和收获粮食作物时,精确度可以发挥巨大作用。例如,农民可以利用 YOLO11 对物体检测和实例分割的支持来识别潜在的作物疾病、跟踪牲畜和检测虫害。
特别是,YOLO11 可以通过分析无人机或摄像机拍摄的图像,帮助捕捉植物病害、有害害虫或不健康动物的早期迹象。这类视觉人工智能系统能让农民迅速采取行动,阻止问题蔓延,从而节省时间并减少损失。
由于农场条件会随着天气和季节的变化而不断变化,因此在各种图像上测试模型以确保其在不同情况下的良好表现非常重要。使用 DVCLive 集成为农业应用定制培训 YOLO11 是跟踪其性能的好方法,尤其是在使用不同数据集时。
零售店可以利用人工智能和计算机视觉来了解顾客的行为,并做出改进以提升购物体验。
通过分析监控摄像头的视频,YOLO11 可以跟踪人们如何在店内走动、哪些区域人流量最大以及购物者如何与产品互动。然后,这些数据可用于制作热图,以展示哪些货架最吸引人、顾客在不同过道上花费的时间以及广告展示是否受到关注。
有了这些商业智能,店主可以重新整理产品以提高销售额,加快结账速度,并调整人员配置,在顾客最需要的地方和时间为他们提供帮助。
通常情况下,零售店具有独特的特点,例如不同的照明条件、布局和人群规模。由于这些差异,用于分析商店活动的计算机视觉模型需要针对每个地点进行仔细的测试和调整,以确保准确性。例如,DVCLive 集成可以帮助微调 YOLO11,使其在零售应用中更加精确和可靠,从而能够更好地洞察客户行为和商店运营。
在使用 DVCLive 集成的同时对 YOLO11 进行自定义训练,可以更轻松地跟踪和改进计算机视觉实验。它会自动记录重要细节,显示清晰的视觉结果,并帮助您比较模型的不同版本。
无论您是想提高农场生产率还是改善商店购物体验,该集成都能确保您的 Vision AI 模型性能良好。通过实验跟踪,您可以系统地测试、完善和优化模型,从而不断提高准确性和性能。
加入我们的社区,探索我们的GitHub 存储库,了解更多有关视觉人工智能的信息,并查看 我们的许可选项,启动您的计算机视觉项目。对制造业中的人工智能 或自动驾驶中的计算机视觉等创新感兴趣?访问我们的解决方案页面,了解更多信息。