Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

SiLU (Sigmoid Linear Unit)

Scopri come la funzione di attivazione SiLU (Swish) aumenta le prestazioni del deep learning in attività di IA come il rilevamento di oggetti e il NLP.

La Sigmoid Linear Unit, comunemente nota come SiLU, è una funzione di attivazione utilizzata nelle reti neurali che ha guadagnato popolarità per la sua efficienza e le sue prestazioni. È una funzione self-gated che combina elegantemente le proprietà delle funzioni Sigmoid e Rectified Linear Unit (ReLU). SiLU è stata introdotta nel documento "Searching for Activation Functions", dove originariamente era chiamata Swish. Le sue proprietà uniche, come la levigatezza e la non monotonicità, le consentono spesso di superare le tradizionali funzioni di attivazione come ReLU nei modelli profondi, portando a una migliore accuratezza e a una convergenza più rapida durante il training del modello.

Come funziona SiLU

SiLU è definita moltiplicando un valore di input per la sua sigmoide. Questo meccanismo di auto-gating consente alla funzione di passare senza problemi dall'essere lineare per input positivi a quasi zero per input negativi di grandi dimensioni, il che aiuta a regolare il flusso di informazioni attraverso la rete. Una caratteristica fondamentale di SiLU è la sua non monotonicità; può scendere leggermente al di sotto dello zero per piccoli input negativi prima di risalire verso lo zero. Si ritiene che questa proprietà migliori il potere espressivo della rete neurale creando un panorama di gradienti più ricco e prevenendo il problema del gradiente che svanisce che può rallentare o arrestare il processo di apprendimento nelle architetture profonde. La fluidità della curva SiLU è anche un vantaggio significativo, in quanto garantisce un gradiente uniforme per gli algoritmi di ottimizzazione come la discesa del gradiente.

SiLU a confronto con altre funzioni di attivazione

SiLU offre diversi vantaggi rispetto ad altre funzioni di attivazione comunemente utilizzate, rendendola una scelta interessante per le moderne architetture di deep learning (DL).

  • ReLU (Rectified Linear Unit): A differenza di ReLU, che ha un cambiamento brusco a zero e un gradiente zero costante per tutti gli input negativi, SiLU è una funzione liscia e continua. Questa fluidità aiuta durante il processo di backpropagation. Inoltre, SiLU evita il problema del "dying ReLU", in cui i neuroni possono diventare permanentemente inattivi se ricevono costantemente input negativi.
  • Leaky ReLU: Mentre Leaky ReLU affronta anche il problema del neurone morente consentendo un piccolo gradiente diverso da zero per gli input negativi, la curva liscia e non monotona di SiLU può talvolta portare a una migliore generalizzazione e ottimizzazione in reti profonde molto complesse.
  • Sigmoide: La funzione sigmoide è un componente fondamentale di SiLU, ma le loro applicazioni differiscono in modo significativo. La sigmoide viene tipicamente utilizzata nel livello di output per task di classificazione binaria o come meccanismo di gating nelle RNN. Al contrario, SiLU è progettata per i livelli nascosti e ha dimostrato di migliorare le prestazioni nelle reti neurali convoluzionali (CNN).
  • GELU (Gaussian Error Linear Unit): La SiLU viene spesso confrontata con la GELU, un'altra funzione di attivazione smooth che ha mostrato prestazioni eccellenti, in particolare nei modelli Transformer. Entrambe le funzioni hanno forme e caratteristiche di performance simili, e la scelta tra le due spesso si riduce ai risultati empirici della regolazione degli iperparametri.

Applicazioni nell'AI e nel Machine Learning

L'equilibrio tra efficienza e prestazioni ha reso SiLU una scelta popolare in vari modelli all'avanguardia.

  • Rilevamento di oggetti: I modelli avanzati di rilevamento di oggetti, comprese le versioni di Ultralytics YOLO, utilizzano SiLU nei loro livelli nascosti. Ad esempio, in applicazioni come i veicoli autonomi che si basano sul rilevamento in tempo reale, SiLU aiuta il modello ad apprendere in modo più efficace caratteristiche complesse dai dati dei sensori, migliorando l'accuratezza del rilevamento di pedoni, segnali stradali e altri veicoli. Questo apprendimento migliorato delle caratteristiche è fondamentale per la sicurezza e l'affidabilità, soprattutto quando ci si addestra su set di dati su larga scala come COCO.
  • Classificazione delle immagini: SiLU è un componente chiave in modelli di classificazione efficienti e potenti, come la famiglia di modelli EfficientNet. In campi come l'analisi delle immagini mediche, la capacità di SiLU di preservare il flusso del gradiente aiuta i modelli a imparare trame e modelli sottili. Questo è utile per attività come la classificazione di tumori da scansioni MRI o l'identificazione di malattie da radiografie del torace, dove l'alta precisione è fondamentale.

Implementazione

SiLU è facilmente disponibile nei principali framework di deep learning, il che rende facile incorporarla in modelli nuovi o esistenti.

Piattaforme come Ultralytics HUB supportano il training dei modelli e l'esplorazione di varie opzioni di deployment per modelli che utilizzano componenti avanzati come SiLU. La ricerca continua e le risorse di organizzazioni come DeepLearning.AI aiutano i professionisti a sfruttare efficacemente tali funzioni. La scelta di una funzione di attivazione rimane una parte fondamentale della progettazione di architetture di reti neurali efficaci e SiLU rappresenta un significativo passo avanti in questo settore.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti