深圳Yolo 视觉
深圳
立即加入

通过Ultralytics YOLOv8实现负责任的人工智能

Abirami Vina

4 分钟阅读

2024年9月5日

学习使用Ultralytics YOLOv8 开发负责任的人工智能解决方案,遵循最佳道德和安全实践,优先考虑公平、合规的人工智能创新。

人工智能的未来掌握在开发人员、技术爱好者、企业领导者和其他利益相关者的手中,他们正在使用的工具和模型包括 Ultralytics YOLOv8等工具和模型来推动创新。然而,创造有影响力的人工智能解决方案不仅仅是使用先进的技术。还要负责任地去做。 

负责任的 AI 近来一直是 AI 社区中热门的讨论话题,越来越多的人谈论其重要性并分享他们的想法。从在线讨论到行业活动,人们越来越关注如何使 AI 不仅强大而且合乎道德。这些对话中的一个共同主题是强调确保每个参与AI 项目的人在每个阶段都保持专注于负责任 AI 的心态。 

在本文中,我们将首先探讨一些与负责任的 AI 相关的最新事件和讨论。然后,我们将仔细研究开发 计算机视觉项目 所面临的独特的伦理和安全挑战,以及如何确保您的工作既具有创新性又符合道德规范。通过拥抱负责任的 AI 原则,我们可以创造真正使每个人都受益的 AI!

2024 年的负责任 AI

近年来,人们明显加大了推动 AI 伦理化的力度。2019 年,只有 5% 的组织制定了AI 伦理准则,但到 2020 年,这一数字跃升至 45%。因此,我们开始看到更多与这种伦理转变的挑战和成功相关的新闻报道。特别是,关于生成式 AI以及如何负责任地使用它的讨论非常热烈。

2024 年第一季度,Google的人工智能聊天机器人"双子座"(Gemini引起了广泛讨论。特别是,"双子座 "被用来创建将各种历史人物(如二战德国士兵)描绘成有色人种的图像。该人工智能聊天机器人旨在使其生成的图像中的人物形象多样化,以实现有意的包容性。然而,有时系统会误解某些语境,导致生成的图像被认为不准确、不恰当。

__wf_reserved_inherit
图 1 Gemini 生成的图像。

Google搜索主管普拉巴卡尔-拉加万(Prabhakar Raghavan)在一篇博文中解释说,人工智能变得过于谨慎,甚至拒绝根据中性提示生成图像。虽然 "双子座 "的图像生成功能旨在促进视觉内容的多样性和包容性,但却引发了人们对历史表述准确性的担忧,以及对偏见和负责任的人工智能开发的广泛影响。关于如何在人工智能生成的内容中促进多样化表现的目标与保证准确性和防止错误表现的需要之间取得平衡,人们一直在争论不休。

这样的故事清楚地表明,随着AI不断发展并更多地融入我们的日常生活,开发人员和公司做出的决策可能会对社会产生重大影响。在下一节中,我们将深入探讨在2024年负责任地构建和管理AI系统的技巧和最佳实践。无论您是刚开始还是希望改进您的方法,这些指南都将帮助您为更负责任的AI未来做出贡献。

YOLOv8 项目中的伦理考虑因素

在使用 YOLOv8时,必须牢记一些关键的道德考虑因素,如偏见、公平、隐私、可访问性和包容性。让我们通过一个实际例子来了解这些因素。

__wf_reserved_inherit
图 2 AI 中的伦理和法律考量。

比方说,您正在为一家医院开发一个监控系统,用于监控走廊上的可疑行为。该系统可以使用YOLOv8 来detect 在禁区逗留的人员、未经授权的访问,甚至发现可能需要帮助的病人,比如那些误入不安全区域的病人。该系统将分析来自医院各处监控摄像头的实时视频,并在发生异常情况时向安保人员发送实时警报。

如果您的YOLOv8 模型是在有偏见的数据基础上训练出来的,那么它最终可能会基于种族或性别等因素不公平地针对某些人群,从而导致错误警报甚至歧视。为了避免这种情况,必须平衡您的数据集,并使用一些技术来detect 和纠正任何偏差,例如

  • 数据增强:通过多样化的示例增强数据集可确保所有组的平衡表示。
  • 重采样:调整训练数据中代表性不足的类别的频率,以平衡数据集。
  • 公平感知算法:实施专门设计用于减少预测偏差的算法。
  • 偏差检测工具:使用分析模型预测结果的工具来识别和纠正偏差。

隐私是另一个大问题,尤其是在医院等涉及敏感信息的环境中。YOLOv8 可能会捕捉到病人和员工的个人详细信息,比如他们的面孔或活动。为了保护他们的隐私,您可以采取一些措施,例如对数据进行匿名处理以删除任何可识别的信息,在使用个人数据前征得个人的适当同意,或在视频画面中模糊人脸。对数据进行加密并确保其安全存储和传输以防止未经授权的访问也是一个好主意。

设计系统时,使其具有可访问性和包容性也很重要。您应该确保它适用于所有人,无论他们的能力如何。在医院环境中,这意味着该系统应该易于所有员工、患者和访客使用,包括那些有残疾或其他无障碍需求的人。拥有一支多元化的团队可以带来很大的不同。来自不同背景的团队成员可以提供新的见解,并帮助识别可能被遗漏的潜在问题。通过引入各种观点,您更有可能构建一个用户友好且可供广泛人群访问的系统。

YOLOv8的最佳安全实践

在实际应用中部署YOLOv8 时,必须优先考虑安全性,以保护模型及其使用的数据。例如,机场的排队管理系统使用计算机视觉和YOLOv8 来监控旅客流量。YOLOv8 可用于track 旅客通过安检站、登机口和其他区域的情况,帮助识别拥堵点,优化人流以减少等待时间。该系统可以使用战略性地放置在机场周围的摄像头来捕捉实时视频画面,并由YOLOv8 对乘客进行实时检测和计数。从这一系统中获得的信息可用于在排队时间过长时提醒工作人员,自动开放新的检查站,或调整人员配置水平,使运营更加顺畅。

__wf_reserved_inherit
图 3使用Ultralytics YOLOv8 对机场售票柜台的队列进行管理。

在这种情况下,确保YOLOv8 模型免受攻击和篡改至关重要。这可以通过加密模型文件来实现,这样未经授权的用户就无法轻易访问或更改这些文件。您可以在安全服务器上部署模型,并设置访问控制以防止篡改。定期的安全检查和审计有助于发现任何漏洞,确保系统安全。类似的方法也可用于保护敏感数据,如乘客视频馈送。

为了进一步加强安全性,可以将Snyk、GitHub CodeQL 和 Dependabot等工具集成到开发流程中。Snyk可以帮助识别并修复代码和依赖项中的漏洞,GitHub CodeQL可以扫描代码中的安全问题,Dependabot可以让依赖项及时更新最新的安全补丁。Ultralytics 采用这些工具来detect 和预防安全漏洞。

常见陷阱以及如何避免它们

尽管用心良苦并遵循最佳实践,但失误仍然可能发生,从而使您的人工智能解决方案存在漏洞,尤其是在道德和安全方面。了解这些常见问题 可以帮助您主动解决这些问题 ,并建立更强大的YOLOv8 模型。以下是一些需要注意的陷阱以及如何避免这些陷阱的提示:

  • 忽视法规遵从性:不遵守 AI 法规可能会导致法律困境并损害您的声誉。及时了解相关法律(如 GDPR 数据保护法),并通过定期合规性检查确保您的模型符合要求。
  • 在真实条件下测试不足:未经真实条件测试的模型在部署时可能会失败。在测试期间模拟真实世界的极端情况,及早发现潜在问题,并调整您的模型,使其更易于访问。
  • 缺乏问责措施:如果不清楚谁对人工智能系统的不同部分负责,则可能难以处理错误、偏见或滥用,这可能会导致更严重的问题。通过在您的团队中定义角色和职责,并建立在出现问题时解决问题的流程,来建立对人工智能结果的明确责任。
  • 不考虑环境影响:AI 模型可能会对环境产生严重影响。例如,大规模部署可能需要数据中心的支持,而数据中心会消耗大量能源来处理密集型计算。您可以优化您的模型以提高能源效率,并考虑训练和部署过程的环境足迹
  • 忽视文化敏感性: 在训练模型时,如果不考虑文化差异,可能会在某些情况下显得不恰当或具有冒犯性。通过在数据和开发过程中包含不同的文化视角,确保您的人工智能解决方案尊重文化规范和价值观。
__wf_reserved_inherit
图 4 伦理原则与要求。

使用YOLOv8构建符合道德规范的安全解决方案 

使用YOLOv8 构建人工智能解决方案提供了许多令人兴奋的可能性,但牢记道德和安全至关重要。通过关注公平性、隐私、透明度和遵循正确的指导方针,我们可以创建性能良好并尊重人们权利的模型。我们很容易忽视数据偏差、隐私保护或确保每个人都能使用系统等问题,但花时间解决这些问题可以改变游戏规则。当我们利用YOLOv8 等工具不断推动人工智能的发展时,让我们记住技术的人性一面。通过深思熟虑和积极主动,我们可以打造出负责任和先进的人工智能创新!

请务必加入我们的社区,获取 AI 的最新动态!此外,您还可以访问我们的 GitHub 存储库,了解更多关于 AI 的信息,并探索我们在各个领域的解决方案,如制造业自动驾驶

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始