Scopri come i token, gli elementi costitutivi dei modelli di intelligenza artificiale, alimentano l'NLP, la computer vision e attività come l'analisi del sentimento e il rilevamento degli oggetti.
Nel regno dell'Intelligenza Artificiale (AI) e dell'Apprendimento Automatico (ML), in particolare nell'elaborazione del linguaggio naturale (NLP) e sempre più nella computer vision, un "token" rappresenta la più piccola unità di dati che un modello elabora. I token sono gli elementi fondamentali che i modelli di AI utilizzano per comprendere e analizzare le informazioni, siano esse testi, immagini o altre forme di dati. Sono essenziali per convertire gli input grezzi in un formato che gli algoritmi possono interpretare e da cui possono apprendere, costituendo la base per molti compiti complessi dell'IA.
I gettoni sono gli output discreti di un processo chiamato tokenizzazione. In NLP, ad esempio, una frase del tipoUltralytics YOLO è veloce e preciso" può essere tokenizzata in singole parole: ["Ultralytics", "YOLO", "is", "fast", "and", "accurate"]
. A seconda della specifica strategia di tokenizzazione, i token possono anche essere unità di sottoparole (ad esempio, "Ultra", "lytics") o addirittura singoli caratteri. Questa suddivisione trasforma il testo continuo o i dati complessi in pezzi gestibili.
Il motivo per cui i token sono fondamentali è che la maggior parte dei modelli di deep learning, comprese le potenti architetture come i Transformer utilizzati in molti moderni sistemi di intelligenza artificiale, non possono elaborare direttamente dati grezzi e non strutturati. Hanno bisogno di input in un formato strutturato, spesso numerico. La tokenizzazione fornisce questo ponte. Una volta che i dati sono stati tokenizzati, ogni token viene tipicamente mappato in una rappresentazione numerica, come un ID in un vocabolario o, più comunemente, in rappresentazioni vettoriali dense chiamate embeddings. Questi embeddings catturano le relazioni semantiche tra i token, che i modelli apprendono durante l'addestramento.
Esistono diversi metodi per suddividere i dati in token:
È importante distinguere i token dai termini correlati:
I token sono fondamentali in diversi ambiti dell'IA. Ecco due esempi concreti:
Traduzione automatica: In servizi come Google Translate, una frase in ingresso in una lingua viene prima tokenizzata. Questi token vengono elaborati da un modello sequenza-sequenza (spesso un Transformer), che poi genera dei token che rappresentano la frase tradotta nella lingua di destinazione. La scelta della tokenizzazione ha un impatto significativo sull'accuratezza e sulla fluidità della traduzione. I LLM come il GPT-4 e il BERT si basano molto sull'elaborazione dei token per compiti quali la traduzione, la generazione di testi e l'analisi del sentimento. Tecniche come il prompt tuning e il prompt chaining prevedono la manipolazione delle sequenze di token in ingresso per guidare il comportamento del modello.
Visione artificiale con i trasformatori: Sebbene siano tradizionalmente associati all'NLP, i token sono ora al centro di modelli avanzati di computer vision come i Vision Transformers (ViT). In un ViT, un'immagine viene suddivisa in patch di dimensioni fisse e non sovrapposte (ad esempio, 16x16 pixel). Ogni patch viene trattata come un "token visivo". Questi token vengono incorporati linearmente e inseriti in un'architettura Transformer, che utilizza meccanismi di attenzione per analizzare le relazioni tra le diverse parti dell'immagine. Questo approccio viene utilizzato per compiti come la classificazione delle immagini, il rilevamento degli oggetti e la segmentazione delle immagini. Modelli come il Segment Anything Model (SAM) utilizzano questo approccio basato sui token. Anche nei modelli convoluzionali come Ultralytics YOLOv8 o il più recente Ultralytics YOLO11il sistema di celle a griglia utilizzato per il rilevamento può essere visto come una forma implicita di tokenizzazione spaziale.
La comprensione dei token è fondamentale per capire come i modelli di IA interpretano ed elaborano le informazioni. Con l'evoluzione dell'IA, il concetto di token e i metodi per crearli rimarranno fondamentali per gestire diversi tipi di dati e costruire modelli più sofisticati per applicazioni che vanno dall'analisi delle immagini mediche ai veicoli autonomi. Piattaforme come Ultralytics HUB forniscono strumenti per gestire i set di dati e addestrare i modelli, spesso con dati implicitamente o esplicitamente tokenizzati.