Mixture of Agents (MoA) sisteminin karmaşık görevleri çözmek için birden fazla büyük dil modelini (LLM) nasıl kullandığını keşfedin. MoA iş akışlarına görsel bir ajan olarak Ultralytics entegre etmeyi öğrenin.
Ajan Karışımı (MoA), karmaşık görevleri işbirliği içinde çözmek için birden fazla büyük dil modelini (LLM) veya otonom ajanı kullanan gelişmiş bir yapay zeka mimarisidir. MoA sistemi, yanıt üretmek için tek bir modele güvenmek yerine, birkaç farklı modeli aynı anda sorgular. Bu ilk ajanlar bağımsız yanıtlar üretir ve bu yanıtlar daha sonra bir toplayıcı veya sentezleyici ajana iletilir. Toplayıcı, çeşitli bakış açılarını değerlendirir, iyileştirir ve tek bir yüksek kaliteli nihai çıktıya birleştirir. Bu işbirliğine dayalı yaklaşım, akıl yürütme yeteneklerini önemli ölçüde artırır ve bağımsız modellerin bireysel önyargılarını veya zayıflıklarını azaltır; bu da doğal dil işleme (NLP) ve problem çözme alanlarında önemli bir ilerlemeyi temsil eder.
Kulağa benzer gelse de, MoA'yı ilgili kavram olan Uzman Karışımı (MoE) ile birbirinden ayırmak çok önemlidir.
MoA mimarileri, derinlemesine muhakeme, doğruluk kontrolü ve çeşitli verilerin sentezlenmesini gerektiren ortamlarda üstün performans gösterir.
Modern MoA sistemleri giderek daha çok modlu hale gelmektedir; bu da, fiziksel dünyayı algıladıktan sonra bu dünya üzerinde çıkarımda bulunmak için bilgisayar görme (CV) modellerine dayandıkları anlamına gelir. Örneğin, üretimde yapay zeka alanında, görsel bir ajan canlı kamera görüntülerini inceleyebilir ve elde ettiği gözlemleri bir çıkarım ajana gönderebilir.
Aşağıdaki Python , Ultralytics bir MoA iş akışı içinde nasıl bir "görsel ajan" olarak işlev görebileceğini ve sonraki aşamadaki büyük dil modellerine (LLM'ler) beslenecek bağlamsal verileri nasıl çıkarabileceğini göstermektedir. Geliştiriciler, Ultralytics kullanarak bu özel görsel araçları sorunsuz bir şekilde yönetebilir ve ince ayar yapabilir.
from ultralytics import YOLO
# Initialize YOLO26 as a dedicated visual agent
visual_agent = YOLO("yolo26n.pt")
# The agent observes the environment by running inference on an image
results = visual_agent("https://ultralytics.com/images/bus.jpg")
# Extract structured data to pass to the MoA aggregator
detected_classes = [visual_agent.names[int(cls)] for cls in results[0].boxes.cls]
unique_objects = set(detected_classes)
# This text context is then sent to the reasoning agent
print(f"Visual Agent Report: I have identified {', '.join(unique_objects)} in the scene.")
PyTorch gibi çerçevelerle oluşturulan yüksek performanslı görsel algılama modelleri arasındaki boşluğu doldurarak PyTorch ve Google gibi gelişmiş bilişsel motorlar arasında köprü kurarak, MoA ekosistemleri insan işbirliğini yansıtmaktadır. Bunlar hızla Agentic RAG boru backbone haline gelmekte ve daha sağlam ve güvenilir otonom sistemlerin önünü açmaktadır.


Makine öğreniminin geleceği ile yolculuğunuza başlayın