用語集

データプライバシー

匿名化から連合学習に至るまで、AI/MLのための主要なデータプライバシー技術を発見し、信頼、コンプライアンス、倫理的なAIの実践を確保する。

人工知能(AI)と機械学習(ML)の文脈におけるデータプライバシーとは、個人データの取り扱いを管理する原則、方針、手順を指す。個人の情報の収集、使用、保存、共有が倫理的に、そして個人の権利と期待に従って行われることを保証することに重点を置いている。ディープラーニングモデルを含むAIシステムが膨大な量の学習データにますます依存するようになるにつれ、プライバシーの保護は責任あるAI開発の礎石となっている。効果的なデータプライバシーは、ユーザーとの信頼関係を築き、グローバルな規制を遵守する上で極めて重要です。

データ・プライバシーの基本原則

データプライバシーは、MLOpsのライフサイクルを通じて個人データをどのように管理すべきかを規定する、いくつかの基本原則によって導かれている。これらの原則は、ヨーロッパの一般データ保護規則(GDPR)やカリフォルニア州消費者プライバシー法(CCPA)などの法律で体系化されていることが多く、次のようなものがあります:

  • 目的の制限:データは、特定された、明示された、正当な目的のためにのみ収集されるべきであり、それらの目的と相容れない方法でさらに処理されるべきではない。
  • データの最小化:組織は、明示された目的を達成するために絶対に必要なデータのみを収集し、処理すべきである。
  • 同意と透明性:個人は、どのようなデータが収集され、どのように使用されるかについて明確に知らされ、明確な同意を提供しなければならない。
  • 個人の権利利用者は、自己の個人情報にアクセスし、訂正し、削除する権利を有する。
  • 説明責任:組織は、プライバシーの原則を遵守していることを証明する責任があります。電子フロンティア財団(EFF)のような擁護団体は、これらの権利を擁護しています。

データ・プライバシーとデータ・セキュリティ

データ・プライバシーを、関連するデータ・セキュリティの概念と区別することは重要である。

  • データプライバシー:個人データの収集と使用に関する規則と個人の権利に焦点を当てる。何がなぜどのようにデータが適切に利用されるかという問題を扱う。
  • データ・セキュリティ:データ漏洩や不正アクセスなどの脅威からデータを保護するために実施される技術的・組織的対策を指す。例えば、暗号化、ファイアウォール、アクセス制御などがある。

この2つは別物ではあるが、相互に依存している。強力なデータ・セキュリティ対策は、データ・プライバシーを確保するための前提条件である。NISTプライバシー・フレームワークのようなフレームワークは、両者を統合するためのガイダンスを提供しています。

AIにおけるプライバシー向上技術(PET)

AIにおけるプライバシーリスクを軽減するために、開発者は様々なプライバシー向上技術(PET)を採用している。これらの手法は、機密情報の露出を最小限に抑えながら、データから価値ある洞察を導き出すことを可能にする。主な技術には以下が含まれる:

実世界での応用

データ・プライバシーの原則は、多くのAIアプリケーションにおいて重要である:

  • ヘルスケア ヘルスケアにおけるAIでは、疾病を検出するための医療画像解析のようなタスクのためにモデルがトレーニングされる。HIPAAなどの規制を遵守するため、すべての患者データはトレーニングに使用される前に匿名化されなければならない。
  • パーソナライズされた推薦システム: レコメンデーションシステムを実現するために、小売業界の企業は、機密性の高い個人履歴を収集することなく、ユーザーの嗜好を理解するために、オンデバイス処理と連携学習を使用している。これにより、グーグルのようなプライバシー・ポリシーに記載されているように、ユーザーのプライバシーを尊重しながら、カスタマイズされた提案を行うことができる。

結局のところ、強固なデータ・プライバシーの実践は、単なる法的要件ではなく、AI倫理の基本的な部分である。アルゴリズムのバイアスを防ぎ、AI技術の普及に必要なユーザーの信頼を築くのに役立ちます。Ultralytics HUBのようなプラットフォームは、このような配慮を念頭に置いてAIのライフサイクル全体を管理するツールを提供します。ベストプラクティスの詳細については、国際プライバシー専門家協会(IAPP)のリソースを参照してください。

Ultralyticsコミュニティに参加する

AIの未来に参加しませんか。世界のイノベーターとつながり、協力し、成長する

今すぐ参加する
クリップボードにコピーされたリンク