Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

IA incarnée

Explorez l'IA incarnée et découvrez comment les systèmes intelligents interagissent avec le monde physique. Découvrez comment optimiser la perception robotique avec Ultralytics .

L'IA incarnée représente un changement majeur, passant d'algorithmes passifs à des systèmes intelligents capables de percevoir, de raisonner et d' interagir dans un environnement physique ou simulé en 3D. Contrairement aux modèles traditionnels d'apprentissage automatique qui fonctionnent uniquement sur des ensembles de données statiques, ces systèmes possèdent un « corps » (qu'il s'agisse d'un châssis robotique physique ou d'un avatar virtuel) qui leur permet d'exécuter des actions et d'apprendre à partir d'un retour d'information continu provenant de l'environnement. En combinant les entrées des capteurs avec une prise de décision intelligente, les agents incarnés comblent le fossé entre le calcul numérique et l'exécution dans le monde réel .

Comment les systèmes incarnés perçoivent le monde

Au cœur de ces systèmes dynamiques se trouve une vision informatique avancée, qui permet à l'agent de comprendre son environnement dans l'espace. Pour naviguer de manière sûre et efficace, les agents incarnés s'appuient fortement sur la détection d'objets en temps réel et l'estimation continue de la pose. Lorsque les développeurs construisent les voies neuronales de ces agents, ils intègrent souvent des cadres d'apprentissage profond issus de PyTorch ou des outilsTensorFlow pour traiter des données spatiales complexes.

Pour atteindre une véritable autonomie, ces systèmes utilisent de plus en plus des modèles de vision-langage associés à de puissants moteurs d'inférence en temps réel. Cela permet à l'IA non seulement de reconnaître une tasse, mais aussi de comprendre des instructions complexes telles que « prends la tasse rouge près du bord de la table ». Les recherches menées par des institutions telles que l' Institut pour l'intelligence artificielle centrée sur l'humain (HAI) de Stanford continuent de repousser les limites de la manière dont ces agents intègrent les données multisensorielles.

Différencier les termes liés à l'intelligence artificielle

Pour bien comprendre ce domaine, il faut le distinguer de concepts étroitement liés :

  • Robotique: La robotique se concentre principalement sur le matériel mécanique, les actionneurs et le contrôle des moteurs. L'IA incarnée fournit la couche logicielle cognitive qui rend le matériel autonome, comme on le voit dans des projets tels que le robot Atlas de Boston Dynamics.
  • IA physique: bien que souvent utilisées de manière interchangeable, l'IA physique nécessite strictement du matériel tangible et réel. L'IA incarnée est plus large et englobe les agents virtuels formés dans des environnements physiques 3D simulés, comme la plateforme robotique IsaacNVIDIA.
  • Agent IA: Les agents IA traditionnels opèrent dans des espaces numériques (par exemple, navigation sur le web ou écriture de code). Les agents incarnés sont spécialisés dans la gestion de la dimensionnalité spatiale, des contraintes physiques et des flux sensoriels continus.

Applications concrètes

L'intégration du raisonnement cognitif à l'action physique a conduit à des applications transformatrices dans de multiples secteurs, largement documentées dans la bibliothèque numérique ACM pour la recherche en IA.

  • Véhicules autonomes: les voitures autonomes s'appuient sur une intelligence intégrée pour circuler dans les rues des villes. Elles traitent en continu les données fournies par des caméras et des lidars afin d'interpréter les panneaux de signalisation et les mouvements des piétons, à l'instar de la technologie de conduite autonome de Waymo qui interagit en toute sécurité avec les environnements urbains dynamiques .
  • Fabrication intelligente: des bras robotiques équipés de modèles Ultralytics effectuent des tâches complexes sur la chaîne de montage. Ils identifient, sélectionnent et trient de manière dynamique les pièces défectueuses, illustrant ainsi les principes explorés dans les récentes recherches de DeepMind en robotique.
  • Drones agricoles: les véhicules aériens sans pilote utilisent la reconnaissance spatiale pour surveiller la santé des cultures et pulvériser intelligemment les ressources uniquement là où cela est nécessaire, ce qui réduit le gaspillage et augmente le rendement.

Construire la perception pour les agents incarnés

Les développeurs qui construisent ces systèmes physiques exploitent souvent Ultralytics pour annoter des données d'entraînement dynamiques et déployer de manière transparente des modèles d'IA de pointe légers directement sur du matériel à faible consommation d'énergie.

Vous trouverez ci-dessous un Python illustrant comment un agent robotique pourrait utiliser un modèle de vision pour detect en continu des objets detect dans son environnement.

from ultralytics import YOLO

# Load the lightweight YOLO26 model designed for real-time edge hardware
model = YOLO("yolo26n.pt")

# Perform continuous object detection on a robotic camera feed
results = model.predict(source="camera_feed.mp4", stream=True)

# Process the spatial bounding boxes to guide robotic interaction
for r in results:
    print(f"Detected {len(r.boxes)} objects ready for physical interaction.")

À mesure que les domaines de la conception matérielle et de la modélisation cognitive mûrissent, guidés par des efforts d'alignement tels que les recherchesAnthropic sur la sécurité de l'IA et les derniers modèles de raisonnement d'OpenAI, les systèmes incarnés continueront à passer des laboratoires de recherche aux environnements quotidiens, comme le souligne fréquemment IEEE Spectrum dans sa couverture de la robotique.

Boostez votre énergie avec Ultralytics YOLO

Bénéficiez d'une vision IA avancée pour vos projets. Trouvez la licence adaptée à vos objectifs dès aujourd'hui.

Explorer les options de licence