Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

GELU (Gaussian Error Linear Unit)

Scopri come la funzione di attivazione GELU migliora i modelli transformer come GPT-4, potenziando il flusso del gradiente, la stabilità e l'efficienza.

GELU (Gaussian Error Linear Unit) è una funzione di attivazione ad alte prestazioni che è diventata uno standard nelle architetture di reti neurali all'avanguardia, in particolare nei modelli Transformer. È nota per la sua curva liscia e non monotona, che aiuta i modelli ad apprendere schemi complessi in modo più efficace rispetto alle funzioni più datate. Introdotta nel paper "Gaussian Error Linear Units (GELUs)", combina proprietà di altre funzioni come dropout e ReLU per migliorare la stabilità dell'addestramento e le prestazioni del modello.

Come funziona GELU

A differenza di ReLU, che taglia bruscamente tutti i valori negativi, GELU pondera i suoi input in base alla loro grandezza. Determina probabilisticamente se attivare un neurone moltiplicando l'input per la funzione di distribuzione cumulativa (CDF) della distribuzione gaussiana standard. Ciò significa che gli input hanno maggiori probabilità di essere "eliminati" (impostati a zero) quanto più sono negativi, ma la transizione è graduale piuttosto che brusca. Questa proprietà di regolarizzazione stocastica aiuta a prevenire problemi come il problema del gradiente evanescente e consente una rappresentazione più ricca dei dati, il che è fondamentale per i moderni modelli di deep learning.

GELU contro altre funzioni di attivazione

GELU offre diversi vantaggi rispetto ad altre funzioni di attivazione popolari, portando alla sua diffusa adozione.

  • GELU vs. ReLU: La differenza principale è la fluidità della GELU. Mentre la ReLU è computazionalmente semplice, il suo angolo acuto a zero può talvolta portare al problema della "ReLU morente", in cui i neuroni diventano permanentemente inattivi. La curva liscia della GELU evita questo problema, facilitando una discesa del gradiente più stabile e portando spesso a una migliore accuratezza finale.
  • GELU vs. Leaky ReLU: La Leaky ReLU tenta di risolvere il problema della ReLU morente consentendo una piccola pendenza negativa per gli input negativi. Tuttavia, la natura curva e non lineare della GELU fornisce un intervallo di attivazione più dinamico che ha dimostrato di superare la Leaky ReLU in molte attività di deep learning.
  • GELU vs. SiLU (Swish): La Sigmoid Linear Unit (SiLU), nota anche come Swish, è molto simile alla GELU. Entrambe sono funzioni smooth e non monotone che hanno mostrato prestazioni eccellenti. La scelta tra le due spesso si riduce a test empirici per una specifica architettura e un dataset, anche se alcune ricerche suggeriscono che la SiLU può essere leggermente più efficiente in alcuni modelli di computer vision. Modelli come Ultralytics YOLO utilizzano spesso la SiLU per il suo equilibrio tra prestazioni ed efficienza.

Applicazioni nell'IA e nel Deep Learning

GELU è un componente chiave in molti dei modelli di IA più potenti sviluppati fino ad oggi.

Implementazione e utilizzo

GELU è facilmente disponibile in tutti i principali framework di deep learning, rendendo facile l'integrazione in modelli personalizzati.

Gli sviluppatori possono costruire, effettuare il training e distribuire modelli utilizzando GELU con piattaforme come Ultralytics HUB, che semplifica l'intero ciclo di vita MLOps dall'data augmentation al deployment finale del modello.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti