Explore a estrutura Tree of Thoughts (ToT) para melhorar o raciocínio LLM. Aprenda a implementar pesquisa estruturada e lógica de várias etapas com Ultralytics .
A Árvore de Pensamentos (ToT) é uma estrutura de raciocínio avançada projetada para aprimorar as capacidades de resolução de problemas dos Grandes Modelos de Linguagem (LLMs). Ao contrário dos métodos lineares tradicionais, a ToT permite que os modelos explorem vários caminhos de raciocínio simultaneamente, muito semelhante a explorar os ramos de uma árvore. Em cada etapa, o modelo gera vários "pensamentos" possíveis ou etapas intermediárias de raciocínio, avalia a sua viabilidade e decide ativamente quais caminhos seguir, pausar ou abandonar. Essa abordagem reflete a resolução de problemas humana, na qual frequentemente consideramos várias possibilidades, testamos hipóteses mentalmente e voltamos atrás se percebermos que uma determinada abordagem é falha.
Ao explorar estratégias de prompting, é importante distinguir a Árvore de Pensamentos do Prompting em Cadeia de Pensamentos (CoT). O CoT instrui um modelo a seguir uma sequência única e linear de passos lógicos para chegar a uma conclusão. Embora seja altamente eficaz para muitas tarefas, o CoT não consegue recuperar se cometer um erro no início da sua sequência. Em contraste, a ToT mantém explicitamente uma estrutura em árvore de múltiplos caminhos de raciocínio. Ao utilizar algoritmos de pesquisa em largura ou estruturas de pesquisa em profundidade, a ToT pode retroceder a partir de becos sem saída e pivotar para ramos mais promissores, tornando-a significativamente mais robusta para tarefas complexas de IA generativa.
A capacidade de antecipar e avaliar múltiplos resultados torna o ToT altamente valioso em vários setores que exigem lógica complexa.
Ao construir sistemas de raciocínio, a perceção visual atua como entrada sensorial para a árvore lógica do modelo. É possível injetar dados de deteção em tempo real de forma integrada num modelo de raciocínio OpenAI ou num agente que avalia ramificações. O exemplo a seguir demonstra como extrair dados ambientais usando o YOLO26, que poderia servir como uma função de avaliação de nó numa estrutura ToT mais ampla.
from ultralytics import YOLO
# Load Ultralytics YOLO26 to analyze visual states for a reasoning tree
model = YOLO("yolo26n.pt")
results = model("https://ultralytics.com/images/bus.jpg")
def evaluate_thought_state(detections):
# Returns True if a 'bus' is found, prompting the ToT agent to explore this logic branch
return any(model.names[int(box.cls)] == "bus" for box in detections[0].boxes)
print(f"Is this reasoning branch viable? {evaluate_thought_state(results)}")
À medida que pesquisadores de organizações como Google continuam a refinar a avaliação heurística, a integração do ToT nos fluxos de trabalho diários de IA está a acelerar. Estamos a aproximar-nos da inteligência artificial geral (AGI), onde os modelos combinam perfeitamente a aprendizagem multimodal com a pesquisa estruturada. As equipas que desenvolvem estas aplicações de última geração contam com uma infraestrutura robusta, como a Ultralytics , para gerir os conjuntos de dados complexos necessários para treinar as camadas perceptivas e de raciocínio dos sistemas modernos de IA. Para aqueles que desejam se aprofundar na matemática por trás dos gráficos computacionais dinâmicos que alimentam esses modelos, a PyTorch oficial PyTorch continua sendo um recurso inestimável.