Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Intégrations (Embeddings)

Découvrez ce que sont les embeddings et comment ils alimentent l'IA en capturant les relations sémantiques dans les données pour le NLP, les recommandations et la vision par ordinateur.

Les emboîtements sont des représentations vectorielles denses, de faible dimension et continues de variables discrètes, qui constituent un format de données fondamental dans les systèmes modernes d'information. format de données fondamental dans les l'intelligence artificielle (IA). Contrairement aux représentations peu denses telles que l'encodage à une touche, qui peut donner lieu à des vecteurs massifs et inefficaces, les embeddings capturent les relations sémantiques et la signification sous-jacente des données, les encastrements capturent les relations sémantiques et le sens sous-jacent des données en mappant des entrées à haute des entrées à haute dimension, telles que des mots, des images ou des sons, dans un espace numérique compact. Dans cet espace vectoriel appris, les éléments qui partagent des caractéristiques ou des contextes similaires sont placés à proximité les uns des autres, ce qui permet d'améliorer la qualité des données. l'apprentissage machine (ML) d'apprentissage automatique de comprendre et de traiter intuitivement des modèles complexes.

Comment fonctionne l'intégration

Le concept de base des embeddings est la traduction de données brutes en une forme mathématique que les ordinateurs peuvent traiter efficacement. efficacement. Ce processus implique généralement un réseau neuronal (NN) qui apprend à faire correspondre les entrées à des vecteurs de nombres réels. Au cours de la phase d'apprentissage, le phase d'apprentissage du modèle le réseau ajuste ces vecteurs pour que la distance entre eux corresponde à la similarité des éléments qu'ils représentent. ces vecteurs afin que la distance entre eux corresponde à la similarité des éléments qu'ils représentent.

Par exemple, en traitement du langage naturel (NLP)les enchâssements des mots "roi" et "reine" seraient mathématiquement plus proches l'un de l'autre que de "pomme", reflétant ainsi leur relation sémantique. que de "pomme", ce qui reflète leur relation sémantique. Cette transformation est une forme de réduction de la dimensionnalitéCette transformation est une forme de réduction de la dimensionnalité, qui préserve les informations essentielles tout en éliminant le bruit, ce qui rend les tâches en aval telles que la classification ou le regroupement beaucoup plus efficaces. comme la classification ou le regroupement.

Création et formation

Les emboîtements sont généralement générés en tant que sous-produits de l'entraînement. d'apprentissage profond (DL) modèles d'apprentissage sur de grands ensembles de données. Des cadres tels que PyTorch et TensorFlow fournissent des couches spécifiquement conçues pour apprendre ces représentations.

  1. Initialisation: Les vecteurs d'intégration sont souvent initialisés avec des valeurs aléatoires.
  2. L'apprentissage: Au fur et à mesure que le modèle s'optimise pour atteindre un objectif spécifique - comme la prédiction du mot suivant dans une séquence ou l'identification d'objets dans une image - le modèle s'adapte à l'environnement. séquence ou l'identification d'objets dans une image, le modèle poids du modèle associés à la couche couche d'intégration sont mis à jour.
  3. Résultat: Les poids finaux appris servent de table de recherche d'intégration, où chaque jeton ou objet d'entrée correspond à un vecteur dense spécifique. correspond à un vecteur dense spécifique.

Vous pouvez générer des embeddings pour les images à l'aide du logiciel standard vision par ordinateur (VA) standard. L'extrait Python suivant montre comment extraire des embeddings d'une image à l'aide d'une base de données préformée de Ultralytics YOLO11 pré-entraîné.

from ultralytics import YOLO

# Load a YOLO11 classification model
model = YOLO("yolo11n-cls.pt")

# Generate embeddings for an image from a URL
# The embed() method specifically returns the feature vector
embedding_vector = model.embed("https://ultralytics.com/images/bus.jpg")

# Output the shape of the embedding (e.g., a vector of length 1280)
print(f"Embedding shape: {embedding_vector[0].shape}")

Applications concrètes

Les "embeddings" ont révolutionné la manière dont les systèmes traitent les données non structurées, en offrant des possibilités qui étaient auparavant "impossibles". impossible.

  • Moteurs de recherche sémantique: Les moteurs de recherche traditionnels s'appuient sur la correspondance des mots-clés, qui échoue souvent lorsque les requêtes utilisent des synonymes. lorsque les requêtes utilisent des synonymes. La recherche sémantique s'appuie sur pour faire correspondre l'intention d' une requête avec le contenu de documents ou d'images. En comparant la distance vectorielle entre l'intégration de la requête et l'intégration du document, le système récupère les résultats qui sont conceptuellement pertinents, même s'ils ne partagent pas les mots exacts. conceptuellement pertinents, même s'ils ne partagent pas les mêmes mots.
  • Systèmes de recommandation personnalisés: Des plateformes comme Netflix ou Amazon utilisent les embeddings pour modéliser les préférences des utilisateurs et les caractéristiques des articles. préférences de l'utilisateur et les caractéristiques des articles. Si un utilisateur regarde un film de science-fiction, le système de recommandation personnalisé de Netflix ou d'Amazon sera utilisé. système de recommandation peut suggérer d'autres films avec des vecteurs d'intégration similaires. Cette approche, souvent mise en œuvre à l'aide d'algorithmes du plus proche voisin dans une base de données vectorielless'étend efficacement à des millions d'éléments.
  • Apprentissage à partir de zéro: Modèles avancés tels que CLIP apprennent à intégrer conjointement le texte et les images. Cela permet à un système de classify images qu'il n'a jamais vues pendant en comparant l'intégration de l'image à l'intégration du texte des noms de classe. apprentissage à partir de zéro.

Embeddings vs. Concepts connexes

Pour naviguer dans le paysage de l'IA, il est essentiel de comprendre la distinction entre les "embeddings" et les termes apparentés.

  • Embeddings vs. Feature Extraction (extraction de caractéristiques): Bien que les deux impliquent la transformation des données en caractéristiques numériques, l'extraction de caractéristiques peut se référer l'extraction de caractéristiques peut se référer à des techniques manuelles (comme la détection des contours) ou automatisées. Les embeddings sont un type spécifique d'extraction de caractéristiques d'extraction de caractéristiques automatisée et apprise, qui produit des vecteurs denses, souvent utilisés comme entrées pour d'autres modèles ou pour des tâches de similarité.
  • Les embeddings par rapport à la recherche vectorielle: L'intégration est la structure de données (le vecteur lui-même). La recherche vectorielle est le processus d'interrogation d'une collection de ces encastrements pour trouver des éléments similaires. Des technologies telles que Pinecone ou Milvus sont conçus pour stocker les embeddings et effectuer cette recherche efficacement.
  • Embeddings vs. tokenisation: Dans le traitement de texte, tokénisation est l'étape qui consiste à du texte en unités plus petites appelées jetons. Ces jetons sont des identificateurs discrets (entiers) qui permettent de trouver les vecteurs d'intégration correspondants. Ainsi, la la tokénisation précède la récupération des encastrements dans le pipeline.

En convertissant des concepts abstraits en vecteurs mathématiques, les embeddings comblent le fossé entre l'intuition humaine et la logique des machines. la logique de la machine, ce qui permet de reconnaissance des de reconnaissance des formes dans les applications d'IA les plus avancées d'aujourd'hui.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant