Scopri come l'Edge AI consente l'elaborazione dell'IA in tempo reale, sicura ed efficiente sui dispositivi, trasformando settori come l'assistenza sanitaria e i veicoli autonomi.
Edge AI crea un ambiente di elaborazione decentralizzato dove intelligenza artificiale (AI) e gli algoritmi di e gli algoritmi di apprendimento automatico (ML) vengono elaborati direttamente su un dispositivo locale, anziché affidarsi a server remoti. Eseguendo l'elaborazione dei dati vicino alla fonte, ad esempio come i sensori, le telecamere o i gateway IoT, l'Intelligenza Artificiale riduce in modo significativo la latenza e l'utilizzo della larghezza di banda. Questo approccio è essenziale per le applicazioni che richiedono di inferenza in tempo reale, dove i millisecondi contano, o in ambienti con connettività Internet instabile. Il passaggio dall'elaborazione centralizzata all'edge consente ai dispositivi di prendere decisioni indipendenti. di prendere decisioni indipendenti, migliorando la privacy dei dati privacy dei dati mantenendo le informazioni sensibili sull'hardware hardware locale.
In un tipico flusso di lavoro di Edge AI, un dispositivo fisico raccoglie dati attraverso sensori di input. Invece di trasmettere i dati grezzi a un a un centro di elaborazione cloud, il dispositivo utilizza un microprocessore microprocessore incorporato o un acceleratore specializzato, come ad esempio un modulo NVIDIA Jetson o un modulo Google Coral Edge TPUeseguire i modelli di ML a livello locale.
Per funzionare efficacemente su dispositivi con risorse limitate, i modelli sono spesso sottoposti a processi di ottimizzazione. Tecniche come quantizzazione del modello e del modello riducono la dimensione del file e la complessità computazionale delle reti complessità delle reti neurali senza sacrificare in modo significativo l'accuratezza. Quadri ottimizzati, come TensorRT e Intel OpenVINOagiscono come motore di motore di inferenza per accelerare questi modelli su architetture hardware specifiche.
Sebbene siano spesso usati insieme, è utile distinguere tra questi due concetti correlati:
L'implementazione dell'IA Edge sta trasformando i settori industriali consentendo operazioni autonome e analisi più intelligenti.
La distribuzione di un modello su un dispositivo edge spesso comporta l'esportazione di un modello addestrato in un formato indipendente dall'hardware. L'ONNX (Open Neural Network Exchange) ONNX (Open Neural Network Exchange) è uno standard che consente di eseguire i modelli su diverse piattaforme.
L'esempio seguente mostra come esportare un modello YOLO11 leggero, ideale per la distribuzione edge grazie alla sua velocità ed efficienza. velocità ed efficienza:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
L'implementazione dell'intelligenza artificiale in ambito edge comporta delle sfide, soprattutto per quanto riguarda le limitate risorse di potenza e di memoria dei dispositivi edge rispetto ai grandi data center. rispetto ai grandi centri dati. Gli sviluppatori devono bilanciare le prestazioni dei modelli con il consumo energetico, spesso utilizzando SoC (system-on-chip) di aziende come Qualcomm o Ambarella. Qualcomm o Ambarella.
In prospettiva, l'integrazione delle reti 5G migliorerà ulteriormente l'Edge fornendo la connettività ad alta velocità necessaria per il coordinamento dei dispositivi, noto come swarm intelligence. Inoltre, tecniche come l'apprendimento federato consentono ai dispositivi di migliorare in modo collaborativo i modelli globali, mantenendo i dati grezzi decentralizzati e privati.