Esplora il framework Tree of Thoughts (ToT) per migliorare il ragionamento LLM. Scopri come implementare la ricerca strutturata e la logica multi-step con Ultralytics .
Tree of Thoughts (ToT) è un framework di ragionamento avanzato progettato per migliorare le capacità di risoluzione dei problemi dei modelli linguistici di grandi dimensioni (LLM). A differenza dei metodi di prompting lineari tradizionali, ToT consente ai modelli di esplorare più percorsi di ragionamento contemporaneamente, proprio come si esplorano i rami di un albero. Ad ogni passo, il modello genera diversi possibili "pensieri" o passaggi di ragionamento intermedi, ne valuta la fattibilità e decide attivamente quali percorsi perseguire, mettere in pausa o abbandonare. Questo approccio rispecchia il modo in cui gli esseri umani risolvono i problemi, considerando spesso varie possibilità, verificando mentalmente le ipotesi e tornando indietro se si rendono conto che un certo approccio è errato.
Quando si esplorano le strategie di prompting, è importante distinguere Tree of Thoughts da Chain-of-Thought Prompting (CoT). CoT istruisce un modello a seguire una singola sequenza lineare di passaggi logici per arrivare a una conclusione. Sebbene sia molto efficace per molte attività, CoT non è in grado di recuperare se commette un errore all'inizio della sequenza. Al contrario, ToT mantiene esplicitamente una struttura ad albero di percorsi di ragionamento multipli. Utilizzando algoritmi di ricerca in larghezza o framework di ricerca in profondità, ToT può tornare indietro da vicoli ciechi e passare a rami più promettenti, rendendolo significativamente più robusto per compiti complessi di IA generativa.
La capacità di guardare avanti e valutare molteplici risultati rende il ToT altamente prezioso in vari settori che richiedono una logica complessa.
Quando si costruiscono sistemi di ragionamento, la percezione visiva funge da input sensoriale per l'albero logico del modello. È possibile inserire senza soluzione di continuità dati di rilevamento in tempo reale in un modello di ragionamento OpenAI o in un agente che valuta i rami. L'esempio seguente mostra come estrarre dati ambientali utilizzando YOLO26, che potrebbe fungere da funzione di valutazione dei nodi in un quadro ToT più ampio.
from ultralytics import YOLO
# Load Ultralytics YOLO26 to analyze visual states for a reasoning tree
model = YOLO("yolo26n.pt")
results = model("https://ultralytics.com/images/bus.jpg")
def evaluate_thought_state(detections):
# Returns True if a 'bus' is found, prompting the ToT agent to explore this logic branch
return any(model.names[int(box.cls)] == "bus" for box in detections[0].boxes)
print(f"Is this reasoning branch viable? {evaluate_thought_state(results)}")
Mentre i ricercatori di organizzazioni come Google continuano a perfezionare la valutazione euristica, l'integrazione del ToT nei flussi di lavoro quotidiani dell'IA sta accelerando. Ci stiamo avvicinando all' intelligenza artificiale generale (AGI), in cui i modelli combinano perfettamente l' apprendimento multimodale con la ricerca strutturata. I team che sviluppano queste applicazioni di nuova generazione si affidano a infrastrutture robuste, come la Ultralytics , per gestire i complessi set di dati necessari per addestrare sia il livello percettivo che quello di ragionamento dei moderni sistemi di IA. Per chi desidera approfondire la matematica alla base dei grafici computazionali dinamici che alimentano questi modelli, la PyTorch ufficiale PyTorch rimane una risorsa inestimabile.