Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

Agent d'IA

Découvrez ce qu'est un agent d'IA et comment ces systèmes autonomes alimentent l'automatisation moderne. Découvrez leur boucle percevoir-penser-agir et leur rôle dans la vision par ordinateur et la robotique.

Un agent d'IA est une entité autonome qui perçoit son environnement à travers des capteurs, traite ces informations pour prendre des décisions intelligentes et agit sur cet environnement en utilisant des actionneurs pour atteindre des objectifs spécifiques. Contrairement à un simple programme qui suit un ensemble prédéfini d'instructions, un agent d'IA peut apprendre de l'expérience, s'adapter aux conditions changeantes et fonctionner indépendamment sans intervention humaine directe. Cette capacité à percevoir, penser et agir fait des agents la pierre angulaire de l'Intelligence Artificielle (IA) moderne, stimulant le développement de systèmes d'automatisation sophistiqués. L'objectif est de créer des systèmes capables de gérer des tâches complexes et dynamiques, de la navigation dans les rues de la ville à la gestion des processus industriels.

Comment fonctionnent les agents d'IA

Le fonctionnement d'un agent d'IA est mieux compris comme un cycle continu impliquant trois composantes fondamentales :

  1. Perception (Détection) : Les agents recueillent des informations sur leur état actuel et l'environnement qui les entoure à l'aide de capteurs. Dans le contexte de la vision par ordinateur (CV), ces capteurs sont généralement des caméras qui capturent des données visuelles. Ces données brutes sont l'entrée que l'agent utilise pour comprendre son contexte.
  2. Prise de décision (Traitement) : Le cœur d'un agent d'IA est son "cerveau", qui traite les données perceptuelles pour prendre des décisions. Ce composant est souvent un modèle sophistiqué d'apprentissage automatique (ML), tel qu'un réseau neuronal. Pour les comportements complexes, les agents peuvent employer des techniques comme l'apprentissage par renforcement, où ils apprennent les meilleures actions par essais et erreurs pour maximiser une récompense. L'agent évalue diverses possibilités et choisit l'action la plus susceptible d'atteindre son objectif.
  3. Action (Actionnement) : Une fois qu'une décision est prise, l'agent l'exécute par le biais d'actionneurs. Un actionneur est un mécanisme qui affecte l'environnement. Pour un robot physique, il peut s'agir de déplacer un bras robotique ou de diriger un véhicule. Pour un agent numérique, il peut s'agir d'exécuter une transaction sur le marché boursier ou de filtrer des courriels.

Cette boucle percevoir-penser-agir, connue sous le nom d'architecture d'agent, permet à l'agent de fonctionner de manière autonome et de réagir aux événements en temps réel. Les frameworks pour la construction d'agents sont de plus en plus courants, avec des projets comme LangChain et AutoGPT qui gagnent en popularité pour le développement d'agents alimentés par LLM.

Agents d'IA dans la vision par ordinateur

La vision par ordinateur est une technologie essentielle pour les agents d'IA qui opèrent dans le monde physique. Les modèles de vision tels que Ultralytics YOLO11 servent de base perceptive, donnant à l'agent la capacité de « voir » et d'interpréter son environnement. Lorsqu'il est intégré dans un système agentique, un modèle de CV transforme les données visuelles brutes en informations structurées, telles que l'identification et la localisation d'objets (détection d'objets), le suivi de leurs mouvements (suivi d'objets) ou la compréhension des poses humaines (estimation de pose).

Cette combinaison d'IA agentique et de vision par ordinateur est essentielle pour l'avenir de l'automatisation. Un agent ne se contente pas de détecter un objet ; il utilise cette détection comme déclencheur d'une décision. Par exemple, après qu'un modèle YOLO a détecté un défaut sur une chaîne de production, l'agent décide d'activer un bras robotique pour retirer l'article. Cela va au-delà de la simple détection pour créer un flux de travail entièrement automatisé.

Applications et exemples concrets

La puissance des agents d'IA est la plus évidente dans leurs applications réelles, où ils traduisent la perception et la prise de décision en actions tangibles.

  • Véhicules autonomes : Les voitures autonomes sont un excellent exemple d'agents d'IA complexes. Elles utilisent une série de capteurs, notamment des caméras et des LiDAR, pour construire une vue à 360 degrés de leur environnement. Les modèles de CV effectuent une inférence en temps réel pour détecter les piétons, les autres véhicules et les panneaux de signalisation. Le moteur de prise de décision de l'agent traite ensuite ces informations pour contrôler la direction, l'accélération et le freinage, en naviguant en toute sécurité dans des environnements urbains complexes. Des entreprises comme Waymo sont des pionnières dans le déploiement de systèmes aussi avancés basés sur des agents.
  • Fabrication intelligente : Dans la fabrication pilotée par l'IA, les agents d'IA automatisent le contrôle de la qualité. Un agent connecté à une caméra exécutant un modèle comme YOLO11 peut surveiller une bande transporteuse. Il utilise la segmentation d'instance pour identifier chaque produit, vérifier les défauts et, si un défaut est détecté, signaler à un bras robotique (l'actionneur) de retirer l'article défectueux. Cela crée un système d'assurance qualité efficace et autonome qui fonctionne en continu, un élément clé de l'Industrie 4.0.

Différencier les agents d'IA des concepts connexes

Il est utile de distinguer les agents d'IA des autres termes connexes dans le domaine de l'IA.

  • Agent d'IA vs. Modèle d'IA : Un modèle d'IA est un composant d'un agent, pas l'agent lui-même. Un modèle, comme un détecteur d'objets YOLO, est un outil qui effectue une tâche spécifique (par exemple, trouver des objets dans une image). L'agent d'IA est le système global qui utilise la sortie du modèle pour prendre une décision et agir ensuite. Le modèle fournit le « quoi », tandis que l'agent décide « quoi faire à ce sujet ».
  • Agent d'IA vs. Chatbot/LLM : Bien qu'un chatbot ou un grand modèle de langage (LLM) puisse présenter un comportement intelligent, ils sont généralement confinés à des environnements numériques basés sur du texte. Un agent d'IA est un concept plus large qui peut interagir avec le monde physique grâce à des capteurs et des actionneurs. Cependant, un LLM peut servir de puissant moteur de prise de décision au sein d'un agent, un concept exploré par des plateformes comme Hugging Face.
  • Agent d'IA vs. Robotique : La robotique fait référence à la conception et à la construction du robot physique : le corps. L'agent d'IA est l'intelligence qui contrôle ce corps : l'esprit. Un bras robotique industriel n'est qu'un matériel ; il devient un agent intelligent lorsqu'il est alimenté par un système d'IA qui lui permet de percevoir son environnement et de prendre des décisions autonomes.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers