敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024

使用 Ultralytics YOLOv8 负责任地应用 AI

Abirami Vina

4 分钟阅读

2024年9月5日

通过遵循最佳的伦理和安全实践,并优先考虑公平和合规的 AI 创新,学习使用 Ultralytics YOLOv8 开发负责任的 AI 解决方案。

人工智能的未来掌握在开发人员、技术爱好者、商业领袖和其他利益相关者的手中,他们正在使用 Ultralytics YOLOv8 等工具和模型来推动创新。然而,创建有影响力的人工智能解决方案不仅仅是使用先进技术。还在于以负责任的方式这样做。 

负责任的 AI 近来一直是 AI 社区中热门的讨论话题,越来越多的人谈论其重要性并分享他们的想法。从在线讨论到行业活动,人们越来越关注如何使 AI 不仅强大而且合乎道德。这些对话中的一个共同主题是强调确保每个参与AI 项目的人在每个阶段都保持专注于负责任 AI 的心态。 

在本文中,我们将首先探讨一些与负责任的 AI 相关的最新事件和讨论。然后,我们将仔细研究开发 计算机视觉项目 所面临的独特的伦理和安全挑战,以及如何确保您的工作既具有创新性又符合道德规范。通过拥抱负责任的 AI 原则,我们可以创造真正使每个人都受益的 AI!

2024 年的负责任 AI

近年来,人们明显加大了推动 AI 伦理化的力度。2019 年,只有 5% 的组织制定了AI 伦理准则,但到 2020 年,这一数字跃升至 45%。因此,我们开始看到更多与这种伦理转变的挑战和成功相关的新闻报道。特别是,关于生成式 AI以及如何负责任地使用它的讨论非常热烈。

2024 年第一季度,谷歌的 AI 聊天机器人 Gemini 备受关注,它可以根据文本提示生成图像。特别是,Gemini 被用来创建描绘各种历史人物(例如二战时期的德国士兵)为有色人种的图像。这款 AI 聊天机器人的设计初衷是为了使其生成的图像在人物 depiction 上更加多样化,从而实现包容性。然而,有时该系统会错误地理解某些语境,导致生成的图像被认为是不准确和不恰当的。

__wf_reserved_inherit
图 1 Gemini 生成的图像。

Google 搜索负责人 Prabhakar Raghavan 在一篇博文中解释说,该 AI 变得过于谨慎,甚至拒绝响应中性提示 生成图像。 虽然 Gemini 的图像生成功能旨在促进视觉内容的多样性和包容性,但也引发了人们对历史表述准确性的担忧,以及对偏见和负责任的 AI 开发的更广泛影响。 关于如何平衡在 AI 生成的内容中促进多样化表述的目标与确保准确性和防止虚假陈述的需求,目前存在争议。

这样的故事清楚地表明,随着AI不断发展并更多地融入我们的日常生活,开发人员和公司做出的决策可能会对社会产生重大影响。在下一节中,我们将深入探讨在2024年负责任地构建和管理AI系统的技巧和最佳实践。无论您是刚开始还是希望改进您的方法,这些指南都将帮助您为更负责任的AI未来做出贡献。

YOLOv8 项目中的伦理考量

当使用 YOLOv8 构建计算机视觉解决方案时,务必牢记一些关键的伦理考量,例如偏见、公平性、隐私、可访问性 和包容性。让我们通过一个实际的例子来看看这些因素。

__wf_reserved_inherit
图 2 AI 中的伦理和法律考量。

假设您正在为医院开发一个监控系统,该系统监控走廊中的可疑行为。该系统可以使用 YOLOv8 来检测诸如在限制区域徘徊的人员、未经授权的访问,甚至发现可能需要帮助的患者,例如那些游荡到不安全区域的患者。它将分析来自整个医院监控摄像头的实时视频流,并在发生异常情况时向安保人员发送实时警报。

如果您的 YOLOv8 模型是在有偏差的数据上训练的,它最终可能会不公平地针对某些人群,例如基于种族或性别等因素,从而导致误报,甚至歧视。为了避免这种情况,至关重要的是平衡您的数据集并使用技术来检测和纠正任何偏差,例如:

  • 数据增强:通过多样化的示例增强数据集可确保所有组的平衡表示。
  • 重采样:调整训练数据中代表性不足的类别的频率,以平衡数据集。
  • 公平感知算法:实施专门设计用于减少预测偏差的算法。
  • 偏差检测工具:使用分析模型预测结果的工具来识别和纠正偏差。

隐私 是另一个重要问题,尤其是在 医院 等涉及敏感信息的环境中。 YOLOv8 可能会捕获 患者和工作人员 的个人详细信息,例如他们的面部或活动。 为了保护他们的隐私,您可以采取一些措施,例如匿名化数据以删除任何可识别的信息,在使用个人数据之前获得个人的适当同意,或者 模糊视频源中的面部。 最好也对数据进行加密,并确保对其进行安全存储和传输,以防止未经授权的访问。

设计系统时,使其具有可访问性和包容性也很重要。您应该确保它适用于所有人,无论他们的能力如何。在医院环境中,这意味着该系统应该易于所有员工、患者和访客使用,包括那些有残疾或其他无障碍需求的人。拥有一支多元化的团队可以带来很大的不同。来自不同背景的团队成员可以提供新的见解,并帮助识别可能被遗漏的潜在问题。通过引入各种观点,您更有可能构建一个用户友好且可供广泛人群访问的系统。

YOLOv8 的安全最佳实践

在实际应用中部署 YOLOv8 时,务必优先考虑安全性,以保护模型及其使用的数据。例如,机场的 队列管理系统 使用计算机视觉与 YOLOv8 来监控客流。YOLOv8 可用于跟踪乘客通过安检、登机口和其他区域的移动,以帮助识别拥堵点并优化人流以减少等待时间。该系统可能会使用策略性地放置在机场周围的摄像头来捕获实时视频流,YOLOv8 实时检测和计数 乘客。然后,可以使用来自该系统的见解在队伍过长时提醒工作人员、自动打开新的检查站或调整人员配置水平,以使运营更加顺畅。

__wf_reserved_inherit
图 3 使用 Ultralytics YOLOv8 在机场售票柜台进行排队管理。

在这种情况下,保护 YOLOv8 模型免受攻击和篡改至关重要。这可以通过加密模型文件来完成,这样未经授权的用户就无法轻易访问或更改它们。您可以将模型部署在安全的服务器上,并设置访问控制以防止篡改。定期的安全检查和审计可以帮助发现任何漏洞,并保持系统的安全。类似的方法可用于保护敏感数据,例如乘客视频流。

为了进一步加强安全性,可以将 Snyk、GitHub CodeQL 和 Dependabot 等工具集成到开发过程中。Snyk 帮助识别和修复代码和依赖项中的漏洞,GitHub CodeQL 扫描代码中的安全问题,Dependabot 使依赖项保持最新状态,并包含最新的安全补丁。在 Ultralytics,这些工具已用于检测和预防安全漏洞。

常见陷阱以及如何避免它们

尽管有良好的意图并遵循最佳实践,但仍可能发生疏忽,从而在您的 AI 解决方案中留下漏洞,尤其是在伦理和安全方面。了解这些常见问题可以帮助您主动解决这些问题,并构建更强大的 YOLOv8 模型。以下是一些需要注意的陷阱以及如何避免它们的提示:

  • 忽视法规遵从性:不遵守 AI 法规可能会导致法律困境并损害您的声誉。及时了解相关法律(如 GDPR 数据保护法),并通过定期合规性检查确保您的模型符合要求。
  • 在真实条件下测试不足:未经真实条件测试的模型在部署时可能会失败。在测试期间模拟真实世界的极端情况,及早发现潜在问题,并调整您的模型,使其更易于访问。
  • 缺乏问责措施:如果不清楚谁对人工智能系统的不同部分负责,则可能难以处理错误、偏见或滥用,这可能会导致更严重的问题。通过在您的团队中定义角色和职责,并建立在出现问题时解决问题的流程,来建立对人工智能结果的明确责任。
  • 不考虑环境影响:AI 模型可能会对环境产生严重影响。例如,大规模部署可能需要数据中心的支持,而数据中心会消耗大量能源来处理密集型计算。您可以优化您的模型以提高能源效率,并考虑训练和部署过程的环境足迹
  • 忽视文化敏感性: 在训练模型时,如果不考虑文化差异,可能会在某些情况下显得不恰当或具有冒犯性。通过在数据和开发过程中包含不同的文化视角,确保您的人工智能解决方案尊重文化规范和价值观。
__wf_reserved_inherit
图 4 伦理原则与要求。

使用 YOLOv8 构建符合伦理且安全的解决方案 

使用 YOLOv8 构建 AI 解决方案提供了许多令人兴奋的可能性,但务必牢记伦理和安全性。通过关注公平性、隐私、透明度并遵循正确的指导方针,我们可以创建性能良好且尊重人们权利的模型。很容易忽略诸如数据偏差、隐私保护或确保每个人都可以使用系统之类的事情,但是花时间解决这些问题可能会带来改变。当我们不断突破 AI 可以使用 YOLOv8 等工具实现的目标时,让我们记住技术的“人”的一面。通过深思熟虑和积极主动,我们可以构建负责任且先进的 AI 创新!

请务必加入我们的社区,获取 AI 的最新动态!此外,您还可以访问我们的 GitHub 存储库,了解更多关于 AI 的信息,并探索我们在各个领域的解决方案,如制造业自动驾驶

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始
链接已复制到剪贴板