Scopri come l'Edge AI consente un'elaborazione dell'intelligenza artificiale in tempo reale, sicura ed efficiente sui dispositivi, trasformando settori come l'assistenza sanitaria e i veicoli autonomi.
L'Edge AI si riferisce alla pratica di eseguire algoritmi di intelligenza artificiale (AI) direttamente su dispositivi hardware locali, noti come dispositivi edge, come smartphone, fotocamere, sensori o sistemi embedded. Invece di inviare i dati a server di cloud computing remoti per l'elaborazione, l'Edge AI consente di analizzare i dati e prendere decisioni più vicine alla fonte in cui i dati vengono generati. Questo approccio sfrutta i progressi dell'hardware, come i chip AI specializzati, e gli efficienti modelli di apprendimento automatico (ML) per portare l'intelligenza ai margini della rete. In questo modo i dispositivi possono svolgere attività come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale (NLP) e il rilevamento delle anomalie a livello locale.
Il processo prevede in genere l'addestramento di un modello di intelligenza artificiale, spesso utilizzando potenti risorse cloud o server locali. Una volta addestrato, il modello viene sottoposto a tecniche di ottimizzazione come la quantizzazione del modello o il pruning del modello per ridurne le dimensioni e i requisiti computazionali. Questa ottimizzazione è fondamentale per eseguire i modelli in modo efficiente su dispositivi edge con risorse limitate, che spesso hanno una potenza di elaborazione limitata (CPU/GPU), memoria e durata della batteria. Il modello ottimizzato viene poi distribuito sul dispositivo edge utilizzando framework come TensorFlow Lite, PyTorch Mobile, ONNX Runtime o SDK specializzati come OpenVINO diIntel. Il dispositivo può quindi eseguire un'inferenza in tempo reale utilizzando i suoi sensori locali (ad esempio, telecamere, microfoni) per elaborare i dati e generare approfondimenti o azioni senza bisogno di una costante connettività a internet. La gestione di queste implementazioni può essere semplificata utilizzando piattaforme come Ultralytics HUB.
La differenza principale sta nel luogo in cui avviene il calcolo dell'intelligenza artificiale. L'IA in cloud elabora i dati su server centralizzati, offrendo vaste risorse di calcolo adatte a modelli complessi e a dati di formazione su larga scala. Tuttavia, introduce una latenza dovuta alla trasmissione dei dati e richiede una connettività internet affidabile. L'Edge AI, invece, elabora i dati localmente sul dispositivo. Questo riduce al minimo la latenza, migliora la privacy dei dati in quanto le informazioni sensibili non devono lasciare il dispositivo e consente di operare in ambienti offline o a bassa larghezza di banda. Il compromesso è che i dispositivi edge hanno risorse limitate, il che limita la complessità dei modelli implementabili. Leggi di più su Edge AI vs Cloud AI.
L'Edge AI è un'applicazione specifica all'interno del più ampio campo dell'edge computing. L'edge computing si riferisce al paradigma generale di spostare le attività di calcolo dai data center centralizzati verso il "bordo" della rete, più vicino agli utenti e alle fonti di dati. L'Edge AI applica specificamente questo concetto ai carichi di lavoro di AI e ML, consentendo l'elaborazione intelligente direttamente sui dispositivi edge. Mentre l'edge computing può coinvolgere diversi tipi di elaborazione, l'Edge AI si concentra sulla distribuzione e sull'esecuzione di modelli di intelligenza artificiale a livello locale. Puoi saperne di più sull'edge computing qui.
L'Edge AI sta trasformando numerosi settori, in particolare quello della computer vision (CV). L'aumento della domanda si riflette nella crescita delle dimensioni del mercato dell'IA Edge.
Nonostante i suoi vantaggi, l'Edge AI deve affrontare delle sfide, tra cui le limitate risorse computazionali(impatto della potenza di calcolo) dei dispositivi edge, la necessità di modelli altamente ottimizzati(come l'efficienza di YOLOv9), la gestione della distribuzione e degli aggiornamenti dei modelli su numerosi dispositivi distribuiti (spesso utilizzando strumenti come Docker) e la garanzia delle prestazioni dei modelli in condizioni reali variabili. Hardware specializzato come Google Edge TPU e sensori come Sony IMX500 aiutano a risolvere alcune di queste limitazioni hardware. Framework come NVIDIA TensorRT aiutano l'ottimizzazione.
L'Edge AI rappresenta un cambiamento significativo nel modo in cui vengono fornite le funzionalità AI, spostando l'intelligenza dai cloud centralizzati ai dispositivi locali. Ciò consente una nuova generazione di applicazioni AI reattive, private e affidabili che possono operare efficacemente ai margini della rete, con un impatto su tutto, dall'elettronica di consumo ai sistemi industriali critici.