术语表

人工智能伦理

探索人工智能伦理--学习公平、透明、问责和隐私等原则,以确保负责任的人工智能开发和信任。

人工智能伦理学是应用伦理学的一个分支,研究创造和使用人工智能(AI)的道德影响。它为指导人工智能系统的设计、开发和部署提供了一个框架,以确保这些系统在造福人类的同时最大限度地降低风险和负面影响。随着先进的计算机视觉(CV)模型和大型语言模型(LLM)等人工智能技术越来越多地融入日常生活,从医疗保健自动驾驶汽车,理解和应用道德原则对于促进信任和负责任的创新至关重要。

人工智能伦理的关键原则

合乎道德的人工智能建立在几项基本原则之上,这些原则涉及该技术的潜在社会影响。这些原则有助于开发人员和组织应对人工智能带来的复杂挑战。

  • 公平和不歧视:该原则旨在防止算法偏见,确保人工智能系统公平对待所有人。它与人工智能中的公平概念密切相关,后者涉及审核和减少训练数据和模型行为中的偏差。
  • 透明度和可解释性(XAI):人工智能决策过程不应不透明。透明度要求人工智能系统能为用户和利益相关者所理解。可解释的人工智能技术是用于使复杂模型(如神经网络)的输出可解释的方法。
  • 问责与治理:必须对人工智能系统的行动和结果明确问责。这就需要建立治理框架,并明确当人工智能系统造成伤害时,由谁来承担责任。人工智能伙伴关系等组织致力于建立人工智能治理的最佳实践。
  • 隐私和数据安全:人工智能系统通常需要大量数据,因此数据隐私成为首要问题。合乎道德的人工智能开发包括强大的数据安全措施,以保护个人信息并遵守GDPR 等法规。
  • 安全性和可靠性:人工智能系统必须在预定环境中可靠、安全地运行。这就需要进行严格的模型测试和验证,以防止意外行为的发生,尤其是在汽车系统中的人工智能等对安全至关重要的应用中。人工智能安全中心开展研究,以降低大规模人工智能风险。

真实案例

在技术直接影响人类生活的高风险领域,应用人工智能伦理至关重要。

  1. 人工智能在招聘中的应用:自动化招聘平台使用人工智能来筛选简历和评估应聘者。一种合乎道德的方法要求定期对这些系统进行人工智能偏见审核,以确保它们不会基于性别、种族或年龄对求职者进行不公平的惩罚。这有助于创建一个更加公平的招聘流程,有关招聘算法中的偏见的研究也强调了这一点。
  2. 医疗诊断:在医疗图像分析中,Ultralytics YOLO11等人工智能模型可以协助放射科医生从扫描图像中检测疾病。伦理方面的考虑包括确保患者数据的保密性,在不同的患者群体中验证模型的准确性,以及根据世界卫生组织等组织的指导方针,在最终诊断中保持人工监督。

人工智能伦理与相关概念

虽然相关,但人工智能伦理与其某些核心组成部分不同。

  • 人工智能伦理学与人工智能的公平性人工智能的公平性是人工智能伦理学的一个重要子领域,特别关注确保模型不会产生有偏见或歧视性的结果。人工智能伦理是一个更广泛的领域,还包括隐私、责任、安全和透明度。
  • 人工智能伦理与可解释人工智能(XAI)XAI指的是让模型的决策变得可理解的技术方法。它是实现透明这一伦理原则的工具,而人工智能伦理则是总体道德哲学,它决定了为什么需要透明。

通过遵循既定的道德框架,如《NIST 人工智能风险管理框架》和《蒙特利尔负责任人工智能宣言》,开发人员可以开发出更值得信赖、更有益的技术。在 Ultralytics,我们致力于遵守这些原则,详情见我们的负责任人工智能方法。Ultralytics HUB等平台支持有组织、透明的工作流程,以负责任的方式开发人工智能模型。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板