Découvrez Hugging Face, la principale plateforme d'IA pour le NLP et la vision par ordinateur avec des modèles pré-entraînés, des ensembles de données et des outils pour un développement ML transparent.
Hugging Face est une communauté et une plateforme open-source de premier plan qui est devenue un pilier central dans le domaine de l'intelligence artificielle (IA). l 'intelligence artificielle (IA). Souvent souvent appelé le "GitHub de l'apprentissage automatique", il offre un environnement collaboratif où les chercheurs, les développeurs et les organisations partagent, téléchargent et déploient des modèles et des ensembles de données pré-entraînés, développeurs et organisations partagent, téléchargent et déploient des modèles et des ensembles de données pré-entraînés. Bien qu'initialement axé sur le le traitement du langage naturel (NLP), la plateforme s'est considérablement développée pour englober un large éventail de domaines, notamment la vision artificielle (CV) et le traitement audio. En En démocratisant l'accès à des outils de pointe, Hugging Face accélère le développement d'applications de d'applications d'apprentissage machine (ML), en permettant d'exploiter les travaux existants plutôt que de former des modèles à partir de zéro.
L'influence de Hugging Face provient de son écosystème complet, qui comble le fossé entre la recherche de pointe et l'application pratique. et l'application pratique. Au cœur de cet écosystème se trouve la bibliothèque Transformers, un logiciel libre qui simplifie l'utilisation de la bibliothèque Transformers. logiciel libre qui rationalise l'utilisation de l'architecture Transformer. Transformer. Cette architecture, initialement introduite à l'origine par Google DeepMind et d'autres chercheurs, s'appuie sur le sur le mécanisme de l'attention pour traiter efficacement de manière efficace.
Les principaux éléments de l'écosystème sont les suivants
La disponibilité de modèles pré-entraînés sur le Hugging Face Hub permet aux entreprises et aux développeurs de mettre en œuvre l'apprentissage par transfert. l 'apprentissage par transfert. Cette technique consiste à prendre Cette technique consiste à prendre un modèle formé sur un grand ensemble de données et à l'adapter à un ensemble de données spécifique et plus petit, ce qui permet d'économiser d'importantes ressources de calcul. de calcul.
La relation entre Hugging Face et l'IA visionnaire est illustrée par l'intégration de modèles très performants tels que YOLO11. Les modèles Ultralytics sont hébergés sur le Hub, ce qui permet aux utilisateurs de les intégrer directement dans leur flux de travail. utilisateurs de les intégrer directement dans leurs flux de travail. Cette interopérabilité permet aux développeurs de combiner la vitesse et la précision de YOLO avec le large éventail d'outils disponibles dans l'écosystème open-source. Cette interopérabilité permet aux développeurs de combiner la rapidité et la précision de YOLO avec le large éventail d'outils disponibles dans l'écosystème open-source.
Le texte suivant Python démontre comment charger un modèle YOLO directement
à l'aide de la fonction ultralytics qui facilite l'interaction avec les poids des modèles hébergés :
from ultralytics import YOLO
# Load a pre-trained YOLO11 model directly
# This automatically handles downloading weights if not present locally
model = YOLO("yolo11n.pt")
# Run inference on a sample image source
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Display the first result object
results[0].show()
Bien que les deux plateformes soient essentielles au développement de logiciels, il est utile de distinguer leurs fonctions principales. GitHub est une plateforme d'hébergement de code axée sur le contrôle de version pour le code source et la collaboration logicielle. collaboration logicielle. En revanche, Hugging Face se concentre spécifiquement sur les artefacts d'apprentissage automatique. Il héberge les poids des modèles (fichiers binaires lourds) et les ensembles de données. de données, offrant des fonctionnalités spécialisées telles que les "Model qui documentent les limites d'un modèle, l'utilisation prévue et les mesures de performance.