Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Prétraitement des données

Découvrez comment le prétraitement des données transforme les données brutes en entrées propres pour l'IA. Explorez les techniques clés telles que la mise à l'échelle et la normalisation pour améliorer la précision Ultralytics .

Le prétraitement des données est la première étape cruciale du processus d'apprentissage automatique, au cours de laquelle les données brutes sont transformées en un format propre et compréhensible pour les algorithmes. Dans le monde réel, les données sont souvent incomplètes, incohérentes et dépourvues de comportements ou de tendances spécifiques, ce qui les rend « sales » ou « bruitées » pour un ordinateur. Le prétraitement comble le fossé entre les informations brutes et les entrées structurées requises par les réseaux neuronaux, ce qui a un impact significatif sur la précision et l'efficacité du modèle final. En standardisant et en nettoyant les ensembles de données, les ingénieurs s'assurent que des architectures sophistiquées telles que YOLO26 peuvent apprendre des modèles significatifs plutôt que du bruit.

Pourquoi le prétraitement des données est-il important ?

Les modèles d'apprentissage automatique, en particulier ceux utilisés dans la vision par ordinateur, sont sensibles à la qualité et à l'échelle des données d'entrée. Sans un prétraitement adéquat, un modèle peut avoir du mal à converger pendant l'entraînement ou produire des prédictions peu fiables. Par exemple, si les images d'un ensemble de données ont des résolutions ou des échelles de couleurs variables, le modèle doit consacrer une capacité supplémentaire à l'apprentissage pour gérer ces incohérences au lieu de se concentrer sur la tâche réelle de détection d'objets.

Les techniques de prétraitement visent généralement à :

  • Améliorer la qualité des données: éliminer les erreurs, les valeurs aberrantes et les doublons afin de garantir que l'ensemble de données représente fidèlement l'espace problématique.
  • Normaliser les entrées: redimensionner les caractéristiques (telles que les valeurs de pixels) à une plage uniforme, souvent comprise entre 0 et 1, afin d'aider les algorithmes d'optimisation tels que la fonction de descente de gradient à fonctionner plus facilement.
  • Réduire la complexité: simplifier les représentations des données grâce à des techniques telles que la réduction de la dimensionnalité, ce qui accélère le processus d'apprentissage.

Techniques clés dans le prétraitement

Plusieurs méthodes standard sont utilisées pour préparer les données pour l'entraînement, chacune servant un objectif spécifique dans le pipeline de données.

  • Nettoyage des données: cela implique de traiter les valeurs manquantes (imputation), de corriger les étiquettes incohérentes et de filtrer les fichiers corrompus . Dans le contexte de l'IA visuelle, cela peut signifier supprimer les images floues ou corriger les coordonnées incorrectes des cadres de sélection.
  • Normalisation et mise à l'échelle: étant donné que l'intensité des pixels peut varier considérablement, la normalisation des images garantit que les pixels à valeur élevée ne dominent pas le processus d'apprentissage. Les méthodes courantes comprennent la mise à l'échelle Min-Max et la normalisation Z-score.
  • Encodage: les données catégorielles, telles que les étiquettes de classe (par exemple, « chat », « chien »), doivent être converties en formats numériques. Des techniques telles que l' encodage one-hot ou l'encodage par étiquette sont couramment utilisées.
  • Redimensionnement et formatage: les modèles d'apprentissage profond attendent généralement des entrées de taille fixe. Les pipelines de prétraitement redimensionnent automatiquement les images disparates à une dimension standard, telle que 640 x 640 pixels, qui est courante pour l'inférence en temps réel.

Applications concrètes

Le prétraitement des données est omniprésent dans tous les secteurs d'activité, garantissant que les données brutes soient transformées en informations exploitables.

Diagnostic par imagerie médicale

Dans le domaine de l'IA appliquée à la santé, le prétraitement est essentiel pour analyser les radiographies ou les IRM. Les images médicales brutes contiennent souvent du bruit provenant des capteurs ou des variations d'éclairage et de contraste selon l'appareil utilisé. Les étapes de prétraitement telles que l' égalisation de l'histogramme améliorent le contraste afin de rendre les tumeurs ou les fractures plus visibles, tandis que les filtres de réduction du bruit clarifient la structure de l'image. Cette préparation permet aux modèles d'effectuer la détection des tumeurs avec une plus grande précision, ce qui peut sauver des vies en réduisant les faux négatifs.

Conduite autonome

Les voitures autonomes s'appuient sur les données fournies par plusieurs capteurs, notamment des capteurs LiDAR, des radars et des caméras. Ces capteurs produisent des données à des fréquences et à des échelles différentes. Le prétraitement synchronise ces flux et filtre les bruits environnementaux, tels que la pluie ou les reflets, avant de fusionner les données. Pour les véhicules autonomes, cela garantit que le système de perception reçoit une vue cohérente de la route, ce qui permet une navigation sûre et une détectionfiable des piétons dans des environnements en temps réel.

Concepts connexes

Il est important de distinguer le prétraitement des données des autres termes qui apparaissent dans le flux de travail de l'apprentissage automatique.

  • vs. Augmentation des données: alors que le prétraitement prépare les données pour qu'elles soient techniquement utilisables par le modèle (par exemple, redimensionnement), l'augmentation génère de nouvelles variations des données existantes (par exemple, rotation ou retournement d'images) afin d'accroître la diversité de l'ensemble de données . Consultez notre guide sur l' augmentationYOLO pour plus de détails.
  • vs. Ingénierie des caractéristiques: le prétraitement consiste à nettoyer et à formater les données. L'ingénierie des caractéristiques consiste à créer de nouvelles variables significatives à partir des données afin d'améliorer les performances du modèle, comme le calcul d'un « indice de masse corporelle » à partir des colonnes de taille et de poids.
  • vs. Étiquetage des données: l'étiquetage est le processus qui consiste à définir la vérité terrain, par exemple en dessinant des cadres autour des objets. Le prétraitement a lieu après la collecte et l'étiquetage des données, mais avant que celles-ci ne soient introduites dans le réseau neuronal.

Exemple pratique

Dans Ultralytics , le prétraitement est souvent géré automatiquement pendant le pipeline de formation. Cependant, vous pouvez également prétraiter manuellement les images à l'aide de bibliothèques telles que OpenCV. L'extrait de code suivant montre comment charger une image, la redimensionner à une taille d'entrée standard pour un modèle tel que YOLO26 et normaliser les valeurs de pixels.

import cv2
import numpy as np

# Load an image using OpenCV
image = cv2.imread("bus.jpg")

# Resize the image to 640x640, a standard YOLO input size
resized_image = cv2.resize(image, (640, 640))

# Normalize pixel values from 0-255 to 0-1 for model stability
normalized_image = resized_image / 255.0

# Add a batch dimension (H, W, C) -> (1, H, W, C) for inference
input_tensor = np.expand_dims(normalized_image, axis=0)

print(f"Processed shape: {input_tensor.shape}")

Pour les projets à grande échelle, l'utilisation d'outils tels que Ultralytics peut rationaliser ces flux de travail. La plateforme simplifie la gestion des ensembles de données, en automatisant de nombreuses tâches de prétraitement et d'annotation afin d'accélérer la transition entre les données brutes et le modèle déployé.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant