Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Intelligenza artificiale incorporata

Esplora l'Intelligenza Artificiale Incarnata e scopri come i sistemi intelligenti interagiscono con il mondo fisico. Scopri come potenziare la percezione robotica con Ultralytics .

L'IA incarnata rappresenta un importante passaggio dagli algoritmi passivi ai sistemi intelligenti in grado di percepire, ragionare e interagire all'interno di un ambiente fisico o simulato in 3D. A differenza dei modelli tradizionali di apprendimento automatico che operano esclusivamente su set di dati statici, questi sistemi possiedono un "corpo" – che si tratti di un telaio robotico fisico o di un avatar virtuale – che consente loro di eseguire azioni e apprendere dal feedback continuo dell'ambiente. Combinando gli input dei sensori con un processo decisionale intelligente, gli agenti incarnati colmano il divario tra il calcolo digitale e l'esecuzione nel mondo reale .

Come i sistemi incarnati percepiscono il mondo

Il cuore di questi sistemi dinamici è costituito da una visione artificiale avanzata che consente all'agente di comprendere spazialmente l'ambiente circostante. Per navigare in modo sicuro ed efficace, gli agenti incarnati si affidano in larga misura al rilevamento degli oggetti in tempo reale e alla stima continua della posizione. Quando gli sviluppatori costruiscono i percorsi neurali per questi agenti, spesso integrano framework di deep learning provenienti PyTorch o dagli strumentiTensorFlow per gestire dati spaziali complessi.

Per raggiungere una vera autonomia, questi sistemi utilizzano sempre più spesso modelli di visione-linguaggio insieme a robusti motori di inferenza in tempo reale. Ciò consente all'IA non solo di riconoscere una tazza, ma anche di comprendere istruzioni complesse come "prendi la tazza rossa vicino al bordo del tavolo". Ricerche condotte da istituzioni come lo Stanford Institute for Human-Centered Artificial Intelligence (HAI) continuano a spingere i confini di come questi agenti integrano i dati multisensoriali.

Differenziazione dei termini correlati all'intelligenza artificiale

Per comprendere questo campo è necessario distinguerlo da concetti strettamente correlati:

  • La robotica: la robotica si concentra principalmente sull'hardware meccanico, sugli attuatori e sul controllo dei motori. L'intelligenza artificiale incorporata fornisce il livello software cognitivo che rende l'hardware autonomo, come si può vedere in progetti come il robot Atlas di Boston Dynamics.
  • AI fisica: Sebbene spesso utilizzati in modo intercambiabile, l'intelligenza artificiale fisica richiede rigorosamente hardware tangibile e reale. L'intelligenza artificiale incarnata è più ampia e comprende agenti virtuali addestrati in ambienti fisici 3D simulati come la piattaforma robotica IsaacNVIDIA.
  • Agente AI: Gli agenti AI tradizionali operano in spazi digitali (ad esempio, navigando sul web o scrivendo codice). Gli agenti incarnati sono specializzati nella gestione della dimensionalità spaziale, dei vincoli fisici e dei flussi sensoriali continui.

Applicazioni nel mondo reale

L'integrazione del ragionamento cognitivo con l'azione fisica ha portato ad applicazioni trasformative in diversi settori, ampiamente documentate nella biblioteca digitale ACM per la ricerca sull'intelligenza artificiale.

  • Veicoli autonomi: le auto a guida autonoma si affidano all'intelligenza incorporata per navigare nelle strade cittadine. Elaborano continuamente i dati provenienti dai sensori lidar e dalle telecamere per interpretare i segnali stradali e i movimenti dei pedoni, proprio come la tecnologia di guida autonoma di Waymo che interagisce in modo sicuro con gli ambienti urbani dinamici.
  • Produzione intelligente: bracci robotici dotati di modelli Ultralytics eseguono complesse operazioni di assemblaggio sulla linea di produzione. Identificano, selezionano e smistano dinamicamente i pezzi difettosi, dimostrando i principi esplorati nella recente ricerca di DeepMind nel campo della robotica.
  • Droni agricoli: i veicoli aerei senza pilota utilizzano la consapevolezza spaziale per monitorare lo stato di salute delle colture e spruzzare in modo intelligente le risorse solo dove necessario, riducendo gli sprechi e aumentando la resa.

Costruire la percezione per agenti incarnati

Gli sviluppatori che realizzano questi sistemi fisici spesso sfruttano la Ultralytics per annotare dati di addestramento dinamici e implementare senza soluzione di continuità modelli di intelligenza artificiale edge leggeri direttamente su hardware a bassa potenza.

Di seguito è riportato un Python che mostra come un agente robotico potrebbe utilizzare un modello di visione per detect oggetti detect nel suo ambiente in modo continuo.

from ultralytics import YOLO

# Load the lightweight YOLO26 model designed for real-time edge hardware
model = YOLO("yolo26n.pt")

# Perform continuous object detection on a robotic camera feed
results = model.predict(source="camera_feed.mp4", stream=True)

# Process the spatial bounding boxes to guide robotic interaction
for r in results:
    print(f"Detected {len(r.boxes)} objects ready for physical interaction.")

Con la maturazione dei campi della progettazione hardware e della modellazione cognitiva, guidata da iniziative di allineamento quali la ricercaAnthropic sulla sicurezza dell'IA e gli ultimi modelli di ragionamento di OpenAI, i sistemi incarnati continueranno a passare dai laboratori di ricerca agli ambienti quotidiani, come spesso sottolineato nella copertura della robotica di IEEE Spectrum.

Potenziamento con Ultralytics YOLO

Ottieni una visione AI avanzata per i tuoi progetti. Trova oggi stesso la licenza giusta per i tuoi obiettivi.

Esplora le opzioni di licenza