通过道德、公正的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、策略和 Ultralytics YOLO。
人工智能的公平性是一个多学科领域,致力于确保人工智能系统不会对不同个人或群体造成或延续不公平的结果。它涉及开发和部署公平对待所有用户的模型,而不论其人口背景,如种族、性别、年龄或其他受保护的特征。实现公平性是建立值得信赖、负责任的人工智能系统的重要组成部分,可造福于整个社会。对公平性的追求超越了模型的准确性,而是侧重于人工智能驱动决策的社会影响和伦理意义。
虽然公平和相关术语经常交替使用,但它们有着不同的含义:
在人工智能决策会对人们的生活产生重大影响的高风险应用中,实现公平性至关重要。两个突出的例子包括
实现公平是一个持续的过程,需要在整个人工智能生命周期中采用整体方法。主要策略包括
Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并评估Ultralytics YOLO11等模型在不同群体中的性能。这有助于开发更公平的计算机视觉 (CV)解决方案。遵守 "人工智能合作伙伴关系"(Partnership on AI)等组织制定的道德准则,并遵循《美国国家标准与技术研究院人工智能风险管理框架》(NIST AI Risk Management Framework)等政府框架,也是至关重要的步骤。研究界将继续在ACM 公平性、问责制和透明度(FAccT)会议等场合推动这些主题的发展。