匿名化から連合学習に至るまで、AI/MLのための主要なデータプライバシー技術を発見し、信頼、コンプライアンス、倫理的なAIの実践を確保する。
人工知能(AI)と機械学習(ML)の分野におけるデータプライバシーとは、AI/MLシステムで使用される個人情報や機密情報を保護するために採用される原則、規制、技術を指す。データの収集、処理、保存、共有、削除の方法を管理し、公正性、透明性、個人情報に対する個人のコントロールを確保することが含まれる。物体検出のようなAIモデルは、トレーニングのために大規模なデータセットを必要とすることが多いため、強力なデータプライバシー対策を実施することは、ユーザーの信頼を築き、法的義務を遵守し、倫理基準を遵守する上で極めて重要です。Ultralyticsアプローチはプライバシーポリシーでご確認いただけます。
データのプライバシーは、いくつかの理由からAIやMLにおいて基本的に重要である。第一に、ユーザーや利害関係者との信頼関係を築くことができる。自分のデータが安全かつ倫理的に取り扱われると信じられれば、人々はAIシステムに関与する可能性が高くなる。第二に、データプライバシーは多くの法域で法的要件となっている。欧州の一般データ保護規則(GDPR)やカリフォルニア州消費者プライバシー法(CCPA)のような規制は、データの取り扱いに関する厳格な基準を定めており、違反した場合には多額の罰則が科される。これらの規制を遵守することは、AIソリューションをグローバルに展開する組織にとって不可欠である。第三に、データ・プライバシーの保護はAI倫理の中核をなす要素であり、AIシステムが個人の権利を尊重し、個人情報の誤用や漏洩による被害を防止することを保証する。責任あるAIへの取り組みは、開発者にとって重要な検討事項である。
AIやMLアプリケーションにおけるデータプライバシーを強化するために、いくつかの技術が使用されている:
データ・プライバシー技術は、多くのAI/MLアプリケーションにおいて不可欠である:
データ・プライバシーを、関連するデータ・セキュリティの概念と区別することは重要である。
データ・プライバシーとデータ・セキュリティは別物ですが、相互に依存し合っています。データが侵害から適切に保護されていない場合、プライバシーポリシーは効果がないため、強力なデータセキュリティはデータプライバシーを確保するための前提条件である。どちらも信頼できるAIシステムを構築するために不可欠な要素であり、包括的な機械学習運用(MLOps)の実践を通じて管理されることが多い。電子プライバシー情報センター(EPIC)のような組織は、強力なプライバシー保護を提唱し、NISTプライバシーフレームワークのようなフレームワークは、実装のためのガイダンスを提供しています。