Explora el marco Tree of Thoughts (ToT) para mejorar el razonamiento LLM. Aprende a implementar la búsqueda estructurada y la lógica de múltiples pasos con Ultralytics .
Tree of Thoughts (ToT) es un marco de razonamiento avanzado diseñado para mejorar las capacidades de resolución de problemas de los modelos de lenguaje grandes (LLM). A diferencia de los métodos de solicitud lineales tradicionales, ToT permite a los modelos explorar múltiples vías de razonamiento simultáneamente, de forma muy similar a la exploración de las ramas de un árbol. En cada paso, el modelo genera varios «pensamientos» posibles o pasos de razonamiento intermedios, evalúa su viabilidad y decide activamente qué vías seguir, pausar o abandonar. Este enfoque refleja la resolución de problemas humana, en la que a menudo consideramos varias posibilidades, probamos hipótesis mentalmente y retrocedemos si nos damos cuenta de que un determinado enfoque es erróneo.
Al explorar estrategias de sugerencia, es importante distinguir el Árbol de Pensamientos de la Cadena de Pensamientos (CoT). La CoT indica a un modelo que siga una secuencia lineal única de pasos lógicos para llegar a una conclusión. Aunque es muy eficaz para muchas tareas, la CoT no puede recuperarse si comete un error al principio de la secuencia. Por el contrario, ToT mantiene explícitamente una estructura de árbol con múltiples vías de razonamiento. Al utilizar algoritmos de búsqueda en anchura o marcos de búsqueda en profundidad, ToT puede retroceder desde callejones sin salida y pivotar hacia ramas más prometedoras, lo que lo hace significativamente más robusto para tareas complejas de IA generativa.
La capacidad de anticiparse y evaluar múltiples resultados hace que el ToT sea muy valioso en diversas industrias que requieren una lógica compleja.
Al crear sistemas de razonamiento, la percepción visual actúa como entrada sensorial para el árbol lógico del modelo. Se pueden introducir datos de detección en tiempo real de forma fluida en un modelo de razonamiento de OpenAI o en un agente que evalúe ramas. El siguiente ejemplo muestra cómo extraer datos ambientales utilizando YOLO26, que podría servir como función de evaluación de nodos en un marco ToT más amplio.
from ultralytics import YOLO
# Load Ultralytics YOLO26 to analyze visual states for a reasoning tree
model = YOLO("yolo26n.pt")
results = model("https://ultralytics.com/images/bus.jpg")
def evaluate_thought_state(detections):
# Returns True if a 'bus' is found, prompting the ToT agent to explore this logic branch
return any(model.names[int(box.cls)] == "bus" for box in detections[0].boxes)
print(f"Is this reasoning branch viable? {evaluate_thought_state(results)}")
A medida que los investigadores de organizaciones como Google continúan perfeccionando la evaluación heurística, la integración de ToT en los flujos de trabajo cotidianos de IA se está acelerando. Nos estamos acercando a la inteligencia artificial general (AGI), donde los modelos combinan a la perfección el aprendizaje multimodal con la búsqueda estructurada. Los equipos que crean estas aplicaciones de última generación se basan en una infraestructura sólida, como la Ultralytics , para gestionar los complejos conjuntos de datos necesarios para entrenar tanto las capas perceptivas como las de razonamiento de los sistemas modernos de IA. Para aquellos que deseen profundizar en las matemáticas que hay detrás de los gráficos computacionales dinámicos que alimentan estos modelos, la PyTorch oficial de PyTorch sigue siendo un recurso inestimable.