Explorez le cadre Tree of Thoughts (ToT) pour améliorer le raisonnement LLM. Apprenez à mettre en œuvre la recherche structurée et la logique en plusieurs étapes avec Ultralytics .
Tree of Thoughts (ToT) est un cadre de raisonnement avancé conçu pour améliorer les capacités de résolution de problèmes des grands modèles linguistiques (LLM). Contrairement aux méthodes traditionnelles de prompting linéaire, ToT permet aux modèles d'explorer simultanément plusieurs chemins de raisonnement, un peu comme on explore les branches d'un arbre. À chaque étape, le modèle génère plusieurs « pensées » possibles ou étapes de raisonnement intermédiaires, évalue leur viabilité et décide activement des chemins à suivre, à suspendre ou à abandonner. Cette approche reflète la manière dont les humains résolvent les problèmes, en considérant souvent différentes possibilités, en testant mentalement des hypothèses et en revenant en arrière s'ils se rendent compte qu'une certaine approche est erronée.
Lorsqu'on explore les stratégies de suggestion, il est important de distinguer l'arbre de pensées de la chaîne de suggestions (CoT). La CoT demande à un modèle de suivre une séquence linéaire unique d'étapes logiques pour arriver à une conclusion. Bien que très efficace pour de nombreuses tâches, la CoT ne peut pas se rattraper si elle commet une erreur au début de sa séquence. En revanche, ToT maintient explicitement une structure arborescente de multiples chemins de raisonnement. En utilisant des algorithmes de recherche en largeur ou des cadres de recherche en profondeur, ToT peut revenir en arrière à partir d' impasses et pivoter vers des branches plus prometteuses, ce qui le rend nettement plus robuste pour les tâches complexes d' IA générative.
La capacité d'anticiper et d'évaluer plusieurs résultats rend la ToT très utile dans divers secteurs nécessitant une logique complexe.
Lors de la construction de systèmes de raisonnement, la perception visuelle sert d'entrée sensorielle pour l'arbre logique du modèle. Vous pouvez injecter de manière transparente des données de détection en temps réel dans un modèle de raisonnement OpenAI ou dans un agent évaluant des branches. L'exemple suivant montre comment extraire des données environnementales à l'aide de YOLO26, qui pourrait servir de fonction d'évaluation des nœuds dans un cadre ToT plus large.
from ultralytics import YOLO
# Load Ultralytics YOLO26 to analyze visual states for a reasoning tree
model = YOLO("yolo26n.pt")
results = model("https://ultralytics.com/images/bus.jpg")
def evaluate_thought_state(detections):
# Returns True if a 'bus' is found, prompting the ToT agent to explore this logic branch
return any(model.names[int(box.cls)] == "bus" for box in detections[0].boxes)
print(f"Is this reasoning branch viable? {evaluate_thought_state(results)}")
Alors que les chercheurs d'organisations telles que Google continuent d'affiner l' évaluation heuristique, l'intégration du ToT dans les flux de travail quotidiens de l'IA s'accélère. Nous nous rapprochons de l' intelligence artificielle générale (AGI), où les modèles combinent de manière transparente l' apprentissage multimodal et la recherche structurée. Les équipes qui développent ces applications de nouvelle génération s'appuient sur une infrastructure robuste, telle que Ultralytics , pour gérer les ensembles de données complexes nécessaires à l'entraînement des couches perceptuelles et de raisonnement des systèmes d'IA modernes. Pour ceux qui souhaitent approfondir leurs connaissances mathématiques derrière les graphes computationnels dynamiques qui alimentent ces modèles, la PyTorch officielle PyTorch reste une ressource inestimable.