Scopri come i modelli linguistici di piccole dimensioni (SLM) consentono di implementare soluzioni di IA efficienti, riservate e a basso costo sui dispositivi edge. Impara a integrare gli SLM con Ultralytics per l'IA edge.
I modelli linguistici di piccole dimensioni (SLM) sono modelli di intelligenza artificiale semplificati, progettati per comprendere e generare il linguaggio umano in modo efficiente. A differenza delle loro controparti più grandi, gli SLM hanno in genere un numero di parametri che varia da pochi milioni a circa 15 miliardi, il che consente loro di funzionare localmente su dispositivi periferici, senza richiedere un’enorme infrastruttura di cloud computing. Grazie al funzionamento locale, questi modelli offrono un’elaborazione più veloce, una maggiore tutela della privacy degli utenti e una significativa riduzione dei costi di implementazione.
Per comprendere meglio il panorama dell'intelligenza artificiale, è utile distinguere gli SLM dalle tecnologie correlate:
I modelli linguistici di piccole dimensioni stanno trasformando rapidamente i vari settori, portando l'intelligenza avanzata direttamente nei dispositivi elettronici di consumo e nelle reti aziendali .
I recenti progressi compiuti nel 2024 e nel 2025 hanno dimostrato che dati di addestramento di alta qualità possono garantire prestazioni in grado di competere con i modelli su larga scala degli anni precedenti. Innovazioni come GemmaGoogle e Llama 3 8B di Meta dimostrano quanto siano diventate capacitate le architetture più snelle.
Quando sviluppano soluzioni complete di intelligenza artificiale, gli sviluppatori utilizzano spesso Python per integrare il ragionamento linguistico di un SLM con la precisione visiva degli strumenti disponibili sulla Ultralytics . Ad esempio, un SLM integrato nel dispositivo potrebbe elaborare un comando vocale per avviare un'attività di visione artificiale. Il seguente frammento di codice conciso mostra come caricare un modello leggero come Ultralytics per il tracciamento degli oggetti , un'operazione particolarmente adatta allo stesso hardware edge su cui gira un SLM:
from ultralytics import YOLO
# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")
# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")
Dando priorità all'elaborazione locale, gli ingegneri riducono notevolmente i requisiti di larghezza di banda e i costi operativi. Man mano che il settore continua a sviluppare le tecnologie di Edge AI, la potente combinazione di una visione artificiale ottimizzata e di modelli linguistici di piccole dimensioni efficienti darà vita alla prossima generazione di sistemi intelligenti e autonomi.
Inizia il tuo viaggio con il futuro del machine learning