倫理的で偏りのないモデルでAIの公平性を確保します。公平なAIソリューションのためのツール、戦略、およびUltralytics YOLOをご覧ください。
AIにおける公平性は、人工知能システムが、さまざまな個人またはグループに対して不当な結果を生み出したり、永続させたりしないようにすることを目的とした、学際的な分野です。人種、性別、年齢、その他の保護された特性など、人口統計学的背景に関係なく、すべてのユーザーを公平に扱うモデルを開発および展開することが含まれます。公平性を実現することは、社会全体に利益をもたらす、信頼できる責任あるAIシステムを構築するための重要な要素です。公平性の追求は、モデルの精度を超えて、AI主導の意思決定の社会的影響と倫理的影響に焦点を当てています。
公平性および関連用語は、しばしば同じ意味で使用されますが、それぞれ異なる意味を持ちます。
AIの判断が人々の生活に大きな影響を与える可能性のある重要なアプリケーションでは、公平性を実装することが不可欠です。2つの顕著な例を以下に示します。
公平性を達成することは、AIライフサイクル全体を通して包括的なアプローチを必要とする継続的なプロセスです。主な戦略は次のとおりです。
Ultralytics HUBのようなプラットフォームは、カスタムモデルのトレーニングと管理のためのツールを提供し、開発者がデータセットを慎重にキュレーションし、多様なグループ全体のパフォーマンスについてUltralytics YOLO11のようなモデルを評価できるようにします。これにより、より公平なコンピュータビジョン(CV)ソリューションの開発がサポートされます。Partnership on AIのような組織からの倫理ガイドラインを遵守し、NIST AIリスク管理フレームワークのような政府のフレームワークに従うことも重要なステップです。研究コミュニティは、ACM Conference on Fairness, Accountability, and Transparency(FAccT)のような会場でこれらのトピックを進歩させ続けています。