Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Reformer

Découvrez le modèle Reformer : une architecture de transformateur révolutionnaire optimisée pour les longues séquences avec une attention LSH et des couches réversibles.

Le Reformer est une architecture très efficace conçue pour améliorer le modèle standard du Transformer en réduisant de manière significative la mémoire et les coûts de calcul lors du traitement de très longues séquences. Alors que les transformateurs traditionnels ont révolutionné le le traitement du langage naturel (NLP), leur utilisation de la mémoire augmente de façon quadratique avec la longueur de la séquence, ce qui les rend coûteux à exécuter sur de longs documents. Le Reformer s'attaque à ce goulot d'étranglement en permettant le traitement de séquences allant jusqu'à 1 million de tokens sur un seul GPU (Graphics Processing Unit). GPU (unité de traitement graphique), ouvrant de nouvelles possibilités pour la recherche en l'apprentissage profond (DL).

Innovations fondamentales Derrière le Reformer

Le Reformer introduit deux techniques principales pour atteindre une complexité linéaire $O(L)$ plutôt que quadratique $O(L^2)$, ce qui lui permet de traiter de grandes quantités de données plus efficacement que ses prédécesseurs.

  • Hachage sensible à la localité (LSH) Attention : Dans un mécanisme d'attention standard, chaque token s'occupe de tous les autres tokens, ce qui est lourd en termes de calcul. Le Reformer utilise LSH pour regrouper les vecteurs similaires en groupes. L'attention n'est alors calculée qu'à l'intérieur de ces groupes, ce qui permet d'approcher la matrice d'attention complète avec une grande précision, mais à une fraction du coût. avec une grande précision, mais à une fraction du coût. Cela permet au modèle de se concentrer sur les parties pertinentes de l'entrée sans l'ensemble de la séquence.
  • Couches résiduelles réversibles: La formation de réseaux réseaux neuronaux profonds nécessite généralement de stocker les activations de chaque couche pour calculer les gradients au cours de l'apprentissage. activation de chaque couche pour calculer les gradients lors de la rétropropagation. la rétropropagation. Le Reformer utilise des couches réversibles, qui permettent de recalculer les activations à la volée pendant la rétropropagation. qui permettent de recalculer les activations à la volée pendant la rétropropagation plutôt que de les stocker en mémoire. Cette innovation rend le modèle beaucoup plus efficace en termes de mémoire, ce qui permet d'entraîner des réseaux beaucoup plus profonds.

Applications concrètes

La capacité de traiter des contextes étendus rend le Reformer particulièrement utile pour les tâches où la compréhension de la structure globale des données est cruciale. la structure globale des données est cruciale.

  • Analyse génomique : Les séquences d'ADN sont constituées de millions de paires de bases, où des éléments éloignés peuvent s'influencer mutuellement. Le Reformer peut ingérer ces longues séquences afin d'identifier les fonctions des gènes ou de prédire les structures des protéines. identifier les fonctions des gènes ou prédire les structures des protéines, une tâche qui est souvent trop gourmande en mémoire pour les modèles standard comme le BERT.
  • Résumés de documents longs : Dans les secteurs juridique et financier, les professionnels analysent souvent des documents de plusieurs centaines de pages. des documents de plusieurs centaines de pages. Les modèles basés sur le réformateur peuvent traiter des livres entiers ou des contrats juridiques en un seul passage pour effectuer un résumé de texte ou une analyse de l'information. en un seul passage pour effectuer un résumé de texte ou répondre à des questions. de réponse aux questions, en maintenant la cohérence sur de longues distances, à la différence des réseaux neuronaux récurrents (RNN). réseaux neuronaux récurrents (RNN) qui peuvent avoir des difficultés avec les gradients qui s'évanouissent.
  • Génération d'images à haute résolution : En traitant les pixels comme une séquence, le Reformer peut être appliqué aux tâches de génération d'images. aux tâches de génération d'images, en créant des haute résolution, pixel par pixel, sans manquer de mémoire.

Distinction par rapport aux termes apparentés

Il est important de distinguer le Reformer des autres modèles de séquence. Alors que le Longformer cible également les longues séquences, mais il utilise un mécanisme d'attention à fenêtre glissante combiné à une attention globale. un mécanisme d'attention à fenêtre glissante combiné à une attention globale. En revanche, le Reformer s'appuie sur le hachage (LSH) pour trouver les éléments pertinents de manière dynamique. En outre, alors que le YOLO11 est optimisé pour la vitesse en vision par ordinateur, le Reformer est optimisé pour l'efficacité l'efficacité de la mémoire dans la modélisation de séquences. Cependant, tous deux partagent l'objectif de maximiser les performances sur du matériel matériel.

Mise en œuvre d'une inférence efficace

Bien que le Reformer soit une architecture spécifique, le concept d'inférence efficace est universel dans l'IA. L'exemple suivant suivant montre comment effectuer une inférence efficace en utilisant ultralytics sur un flux vidéo - une forme de données séquentielles - où l'optimisation de la vitesse et de la mémoire est cruciale. données séquentielles - où l'optimisation de la vitesse et de la mémoire est essentielle.

from ultralytics import YOLO

# Load the YOLO11n model, optimized for speed and efficiency
model = YOLO("yolo11n.pt")

# Run inference on a video source (treating frames as a sequence)
# stream=True uses a generator to process frames one by one, saving memory
results = model.predict(source="https://ultralytics.com/images/bus.jpg", stream=True)

for result in results:
    # Process each frame's detection results efficiently
    print(f"Detected {len(result.boxes)} objects in current frame.")

Il est essentiel de comprendre les architectures telles que le Reformer pour naviguer dans l'évolution de l'IA, car elles repoussent les limites de la technologie. l 'évolution de l'IA, car elles repoussent les de ce qu'il est possible de faire sur le plan informatique avec l'intelligence artificielle. l 'intelligence artificielle (IA). Pour en savoir plus sur l'entraînement efficace des modèles, consultez les guidesUltralytics .

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant