Découvrez le modèle Reformer : une architecture de transformateur révolutionnaire optimisée pour les longues séquences avec une attention LSH et des couches réversibles.
Le Reformer est une architecture très efficace conçue pour améliorer le modèle standard du Transformer en réduisant de manière significative la mémoire et les coûts de calcul lors du traitement de très longues séquences. Alors que les transformateurs traditionnels ont révolutionné le le traitement du langage naturel (NLP), leur utilisation de la mémoire augmente de façon quadratique avec la longueur de la séquence, ce qui les rend coûteux à exécuter sur de longs documents. Le Reformer s'attaque à ce goulot d'étranglement en permettant le traitement de séquences allant jusqu'à 1 million de tokens sur un seul GPU (Graphics Processing Unit). GPU (unité de traitement graphique), ouvrant de nouvelles possibilités pour la recherche en l'apprentissage profond (DL).
Le Reformer introduit deux techniques principales pour atteindre une complexité linéaire $O(L)$ plutôt que quadratique $O(L^2)$, ce qui lui permet de traiter de grandes quantités de données plus efficacement que ses prédécesseurs.
La capacité de traiter des contextes étendus rend le Reformer particulièrement utile pour les tâches où la compréhension de la structure globale des données est cruciale. la structure globale des données est cruciale.
Il est important de distinguer le Reformer des autres modèles de séquence. Alors que le Longformer cible également les longues séquences, mais il utilise un mécanisme d'attention à fenêtre glissante combiné à une attention globale. un mécanisme d'attention à fenêtre glissante combiné à une attention globale. En revanche, le Reformer s'appuie sur le hachage (LSH) pour trouver les éléments pertinents de manière dynamique. En outre, alors que le YOLO11 est optimisé pour la vitesse en vision par ordinateur, le Reformer est optimisé pour l'efficacité l'efficacité de la mémoire dans la modélisation de séquences. Cependant, tous deux partagent l'objectif de maximiser les performances sur du matériel matériel.
Bien que le Reformer soit une architecture spécifique, le concept d'inférence efficace est universel dans l'IA. L'exemple suivant
suivant montre comment effectuer une inférence efficace en utilisant ultralytics sur un flux vidéo - une forme de données séquentielles - où l'optimisation de la vitesse et de la mémoire est cruciale.
données séquentielles - où l'optimisation de la vitesse et de la mémoire est essentielle.
from ultralytics import YOLO
# Load the YOLO11n model, optimized for speed and efficiency
model = YOLO("yolo11n.pt")
# Run inference on a video source (treating frames as a sequence)
# stream=True uses a generator to process frames one by one, saving memory
results = model.predict(source="https://ultralytics.com/images/bus.jpg", stream=True)
for result in results:
# Process each frame's detection results efficiently
print(f"Detected {len(result.boxes)} objects in current frame.")
Il est essentiel de comprendre les architectures telles que le Reformer pour naviguer dans l'évolution de l'IA, car elles repoussent les limites de la technologie. l 'évolution de l'IA, car elles repoussent les de ce qu'il est possible de faire sur le plan informatique avec l'intelligence artificielle. l 'intelligence artificielle (IA). Pour en savoir plus sur l'entraînement efficace des modèles, consultez les guidesUltralytics .