Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Privacidad de los datos

Descubra las técnicas clave de privacidad de datos para IA/ML, desde la anonimización hasta el aprendizaje federado, garantizando la confianza, el cumplimiento y las prácticas éticas de la IA.

La privacidad de los datos se refiere a la gobernanza, las prácticas y las normas éticas relativas a la forma en que la información personal es se recopila, procesa, almacena y comparte en los inteligencia artificial (IA) y aprendizaje automático. A medida que los modernos, en particular aprendizaje profundo (DL), requieren grandes cantidades de datos de datos de entrenamiento para lograr un alto rendimiento, garantizar la confidencialidad y los derechos de las personas se ha convertido en un reto crítico. Las medidas eficaces de privacidad de los datos generan confianza de los usuarios y garantizan el cumplimiento de marcos legales como el Reglamento General Europeo de Protección de Datos (GDPR) y la Ley de Privacidad del Consumidor de California (CCPA).

Principios básicos de la privacidad de los datos

En el contexto de operaciones de aprendizaje automático (MLOps), la privacidad de los datos no es sólo secreto, sino también control y consentimiento. Los principios clave incluyen:

  • Minimización de datos: Los sistemas sólo deben recoger los datos específicos necesarios para la tarea definida, evitando el acaparamiento de información sensible.
  • Limitación de la finalidad: Los datos recogidos para un fin, como mejorar la fabricación con visión por ordenador, no deben utilizarse para tareas no relacionadas sin consentimiento explícito.
  • Transparencia: Las organizaciones deben tener claro qué datos se utilizan. Esta es una piedra angular de la ética de la IA y ayuda a el sesgo algorítmico.
  • Anonimización: Los identificadores personales deben eliminarse u ocultarse. Técnicas como la seudonimización sustituyen los identificadores privados por identificaciones falsas, lo que permite analizar los datos al tiempo que se protegen las identidades individuales.

Privacidad de datos vs. Seguridad de datos

Aunque a menudo se utilizan indistintamente, estos términos representan conceptos distintos en el ciclo de vida de la IA.

  • La privacidad de los datos se refiere a los derechos de las personas y a la legalidad del uso de los datos. Aborda cuestiones de consentimiento y tratamiento ético.
  • La seguridad de los datos se refiere a los mecanismos técnicos utilizados para proteger los datos de accesos no autorizados, robos o ataques de adversarios.

La seguridad es la herramienta que refuerza la privacidad. Por ejemplo, el cifrado es una medida de seguridad que ayuda a satisfacer los requisitos de privacidad. privacidad. Agencias como el Instituto Nacional de Normas y Tecnología (NIST) proporcionan marcos para integrar eficazmente ambas.

Aplicaciones reales de la IA

La privacidad de los datos es primordial en sectores en los que se procesa automáticamente información personal sensible.

Técnicas para preservar la intimidad

Los desarrolladores utilizan diversas tecnologías de mejora de la privacidad (PET) para proteger los flujos de trabajo de ML:

  • Privacidad diferencial: Este método de Este método añade ruido estadístico a los conjuntos de datos, garantizando que el resultado de un algoritmo no revele si se incluyó información de un individuo concreto en la entrada. información de un individuo concreto. Organizaciones como OpenMined abogan por estas herramientas de privacidad de código abierto.
  • Aprendizaje federado: En lugar de centralizar los datos, el modelo se envía al dispositivo (edge computing). El modelo aprende localmente y sólo envía actualizaciones de vuelta, manteniendo los datos en bruto en el dispositivo del usuario. Esto es cada vez más importante para vehículos autónomos y dispositivos móviles.
  • Datos sintéticos: La generación de datos artificiales que imitan las propiedades estadísticas del mundo real permite a los ingenieros entrenar modelos sin exponer nunca datos reales de los usuarios.

Ejemplo: Anonimización de imágenes con Python

Una de las tareas de privacidad más comunes consiste en difuminar rostros o regiones sensibles en datos visuales. El siguiente ejemplo muestra cómo utilizar YOLO11 para detect un objeto (como una persona) y aplicar un desenfoque para proteger su identidad.

import cv2
from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Read an image
img = cv2.imread("bus.jpg")

# Run object detection
results = model(img)

# Iterate through detections and blur identified objects
for box in results[0].boxes.xyxy:
    x1, y1, x2, y2 = map(int, box)
    # Extract the region of interest (ROI)
    roi = img[y1:y2, x1:x2]
    # Apply a Gaussian blur to the ROI to anonymize it
    img[y1:y2, x1:x2] = cv2.GaussianBlur(roi, (51, 51), 0)

# Save the anonymized image
cv2.imwrite("bus_anonymized.jpg", img)

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora