Hızlı zincirleme ile karmaşık AI görevlerinin güvenilir iş akışlarına nasıl bölündüğünü öğrenin. Ultralytics LLM'lerle entegre ederek gelişmiş AI ajanları oluşturmayı keşfedin.
Hızlı zincirleme, Yapay Zeka (AI) geliştirmede karmaşık bir görevin daha küçük, yönetilebilir alt görevler dizisine ayrıldığı gelişmiş bir mimari modeldir. Bu iş akışında, genellikle Büyük Dil Modeli (LLM) veya bilgisayar görüş sistemi tarafından üretilen bir adımın çıktısı, sonraki adımın girdisi olarak kullanılır. Çok yönlü bir sorunu tek seferde çözmeye çalışan tek bir monolitik komut isteminden farklı olarak, zincirleme, geliştiricilerin daha güvenilir, test edilebilir ve yetenekli uygulamalar oluşturmasına olanak tanır. Bu modüler yaklaşım, akıl yürütebilen, web'de gezinebilen veya fiziksel ortamlarla etkileşime girebilen gelişmiş AI Ajanları oluşturmak için gereklidir. .
Temelde, hızlı zincirleme, bağlam pencerelerinin ve Temel Modellerdeki bağlam pencereleri ve akıl yürütme yeteneklerinin sınırlamalarını ele alır. Bir modelden tek bir istekte çok fazla farklı işlem yapması istendiğinde (örneğin, "Bu görüntüyü analiz et, metni çıkar, İspanyolca'ya çevir ve JSON fatura olarak biçimlendir"), hata olasılığı artar. Bunu bir boru hattına bölerek, geliştiriciler her bir aşamanın doğruluğunu
Etkili zincirler genellikle Python ile yazılmış "yapıştırıcı kod" kullanır. Python veya LangChain gibi orkestrasyon kütüphaneleri tarafından yönetilen "yapıştırıcı kod" kullanır. Bu, farklı teknolojilerin entegrasyonuna olanak tanır, örneğin Nesne Algılama'nın görsel keskinliği ile üretken metin modellerinin dilsel akıcılığını birleştirmek gibi.
Hızlı zincirleme, farklı veri modaliteleri arasındaki boşluğu doldururken özellikle etkilidir ve Çok Modal Modellerin dinamik endüstriyel ve ticari ortamlarda çalışmasını sağlar.
Aşağıdaki örnek, zincirin ilk "bağlantısını" göstermektedir: Bilgisayar Görme (CV) kullanarak, aşağı akış komut isteminin bağlamı olarak hizmet eden yapılandırılmış veriler oluşturmak.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
Etkili Makine Öğrenimi (ML) mimarileri uygulamak için, AI alanında benzer terimlerden prompt chaining'i ayırt etmek yararlıdır:
Hızlı zincirlemeyi kullanarak, ekipler mantık, veri alma ve Eylem Tanıma'yı entegre eden sağlam uygulamalar geliştirebilirler. Veri kümelerini yönetmek ve bu zincirleri destekleyen görme modellerini eğitmek için Ultralytics , açıklama, eğitim ve dağıtım için merkezi bir çözüm sunar.