Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Modèles linguistiques de petite taille (SLM)

Découvrez comment les petits modèles linguistiques (SLM) permettent de mettre en œuvre une IA efficace, confidentielle et économique sur les appareils en périphérie. Apprenez à associer les SLM à Ultralytics pour l'IA en périphérie.

Les petits modèles linguistiques (SLM) sont des modèles d'intelligence artificielle allégés, conçus pour comprendre et générer le langage humain de manière efficace. Contrairement à leurs homologues plus volumineux, les SLM comptent généralement entre quelques millions et environ 15 milliards de paramètres, ce qui leur permet de fonctionner localement sur des terminaux périphériques sans nécessiter une infrastructure massive de cloud computing. En fonctionnant localement, ces modèles offrent un traitement plus rapide, une meilleure protection de la vie privée des utilisateurs et une réduction significative des coûts de déploiement.

Différencier les termes clés

Pour mieux comprendre le paysage de l'IA, il est utile de distinguer les modèles de langage super-scalaires (SLM) des technologies connexes :

Applications concrètes

Les petits modèles linguistiques transforment rapidement les secteurs d'activité en intégrant directement des capacités d'intelligence avancée dans l'électronique grand public et les réseaux d'entreprise .

Intégration des SLM dans les flux de travail modernes

Les avancées récentes de 2024 et 2025 ont démontré que des données d'entraînement de haute qualité peuvent permettre d'obtenir des performances rivalisant avec celles des modèles massifs des années précédentes. Des innovations telles que GemmaGoogle et Llama 3 8B de Meta montrent à quel point les architectures plus légères sont désormais performantes.

Lorsqu'ils développent des solutions d'IA complètes, les développeurs utilisent souvent Python pour associer le raisonnement linguistique d’un SLM à la précision visuelle des outils disponibles sur la Ultralytics . Par exemple, un SLM embarqué pourrait traiter une commande vocale pour lancer une tâche de vision par ordinateur. L’extrait de code concis suivant montre comment charger un modèle léger tel Ultralytics pour le suivi d’objets , une opération parfaitement adaptée au même matériel périphérique exécutant un SLM :

from ultralytics import YOLO

# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")

# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")

En privilégiant l'exécution locale, les ingénieurs réduisent considérablement les besoins en bande passante et les coûts d'exploitation. À mesure que le secteur continue de faire progresser les technologies d'IA en périphérie, la puissante combinaison d'une vision par ordinateur optimisée et de petits modèles linguistiques efficaces sera le moteur de la prochaine génération de systèmes intelligents et autonomes.

Construisons ensemble l'avenir de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique