Découvrez ce que sont les embeddings et comment ils alimentent l'IA en capturant les relations sémantiques dans les données pour le NLP, les recommandations et la vision par ordinateur.
Les emboîtements sont des représentations vectorielles denses, de faible dimension et continues de variables discrètes, qui constituent un format de données fondamental dans les systèmes modernes d'information. format de données fondamental dans les l'intelligence artificielle (IA). Contrairement aux représentations peu denses telles que l'encodage à une touche, qui peut donner lieu à des vecteurs massifs et inefficaces, les embeddings capturent les relations sémantiques et la signification sous-jacente des données, les encastrements capturent les relations sémantiques et le sens sous-jacent des données en mappant des entrées à haute des entrées à haute dimension, telles que des mots, des images ou des sons, dans un espace numérique compact. Dans cet espace vectoriel appris, les éléments qui partagent des caractéristiques ou des contextes similaires sont placés à proximité les uns des autres, ce qui permet d'améliorer la qualité des données. l'apprentissage machine (ML) d'apprentissage automatique de comprendre et de traiter intuitivement des modèles complexes.
Le concept de base des embeddings est la traduction de données brutes en une forme mathématique que les ordinateurs peuvent traiter efficacement. efficacement. Ce processus implique généralement un réseau neuronal (NN) qui apprend à faire correspondre les entrées à des vecteurs de nombres réels. Au cours de la phase d'apprentissage, le phase d'apprentissage du modèle le réseau ajuste ces vecteurs pour que la distance entre eux corresponde à la similarité des éléments qu'ils représentent. ces vecteurs afin que la distance entre eux corresponde à la similarité des éléments qu'ils représentent.
Par exemple, en traitement du langage naturel (NLP)les enchâssements des mots "roi" et "reine" seraient mathématiquement plus proches l'un de l'autre que de "pomme", reflétant ainsi leur relation sémantique. que de "pomme", ce qui reflète leur relation sémantique. Cette transformation est une forme de réduction de la dimensionnalitéCette transformation est une forme de réduction de la dimensionnalité, qui préserve les informations essentielles tout en éliminant le bruit, ce qui rend les tâches en aval telles que la classification ou le regroupement beaucoup plus efficaces. comme la classification ou le regroupement.
Les emboîtements sont généralement générés en tant que sous-produits de l'entraînement. d'apprentissage profond (DL) modèles d'apprentissage sur de grands ensembles de données. Des cadres tels que PyTorch et TensorFlow fournissent des couches spécifiquement conçues pour apprendre ces représentations.
Vous pouvez générer des embeddings pour les images à l'aide du logiciel standard vision par ordinateur (VA) standard. L'extrait Python suivant montre comment extraire des embeddings d'une image à l'aide d'une base de données préformée de Ultralytics YOLO11 pré-entraîné.
from ultralytics import YOLO
# Load a YOLO11 classification model
model = YOLO("yolo11n-cls.pt")
# Generate embeddings for an image from a URL
# The embed() method specifically returns the feature vector
embedding_vector = model.embed("https://ultralytics.com/images/bus.jpg")
# Output the shape of the embedding (e.g., a vector of length 1280)
print(f"Embedding shape: {embedding_vector[0].shape}")
Les "embeddings" ont révolutionné la manière dont les systèmes traitent les données non structurées, en offrant des possibilités qui étaient auparavant "impossibles". impossible.
Pour naviguer dans le paysage de l'IA, il est essentiel de comprendre la distinction entre les "embeddings" et les termes apparentés.
En convertissant des concepts abstraits en vecteurs mathématiques, les embeddings comblent le fossé entre l'intuition humaine et la logique des machines. la logique de la machine, ce qui permet de reconnaissance des de reconnaissance des formes dans les applications d'IA les plus avancées d'aujourd'hui.