Büyük Hareket Modelleri’ni (LAM) ve bunların otonom yapay zeka ajanlarını nasıl yönlendirdiğini keşfedin. Görsel-eylem iş akışları ve görev otomasyonu için Ultralytics entegre etmeyi öğrenin.
Büyük Eylem Modelleri (LAM), görevleri özerk bir şekilde yerine getirip dijital ortamlarla etkileşime girerek metin üretiminin ötesine geçmek üzere tasarlanmış, gelişmiş bir yapay zeka sınıfıdır. Metni katı bir şekilde işleyen ve üreten geleneksel modellerin aksine, LAM'ler yapay zeka ajanları için temel bilişsel motor görevi görür ve insan niyetini somut, çok adımlı eylemlere dönüştürür. Doğal dil anlama ile gerçek dünyadaki uygulama arasındaki boşluğu dolduran bu modeller, Genel Yapay Zeka (AGI) ve yüksek düzeyde otonom sistemlere doğru önemli bir sıçrama niteliğindedir.
LAM'ler, geleneksel temel modellerin mimarisini temel alır, ancak özellikle yazılım, API'ler ve web ortamlarıyla etkileşime girecek şekilde eğitilir. Pekiştirme öğrenimi ve fonksiyon çağrısı gibi teknikleri kullanarak, bir LAM karmaşık bir kullanıcı isteğini mantıksal adımlara bölebilir, grafik kullanıcı arayüzlerinde gezinebilir ve API uç noktalarını çalıştırabilir. Örneğin, Anthropic Claude 3.5 bilgisayar kullanımı ve Salesforce'un xLAM ailesindeki son gelişmeler, bu sistemlerin tıpkı bir insan operatör gibi bağımsız olarak düğmelere tıklayabileceğini, formları doldurabileceğini ve iş akışlarını yönetebileceğini göstermektedir.
Bilgisayar görme sistemleriyle birleştirildiğinde, LAM'ler daha da güçlü hale gelir. Görsel girdiler, Ultralytics gibi son derece verimli modeller tarafından işlenebilir; bu sayede LAM, çevresini "görebilir", görsel bağlamı yorumlayabilir ve algıladıklarına göre belirli programlı eylemleri tetikleyebilir.
LAM'ler, endüstrilerin görev otomasyonuna yaklaşımını dönüştürerek pasif destekten aktif uygulamaya doğru bir geçiş sağlıyor.
LAM'ler, görsel denetimleri otomatikleştirmek amacıyla sıklıkla görüntü işleme modelleriyle entegre edilir. Aşağıdaki Python ,
varsayımsal bir LAM iş akışının bunu nasıl kullanabileceğini göstermektedir ultralytics bir görüntüyü taramak ve
tarama sonuçlarına göre
nesne algılama Sonuçlar.
from ultralytics import YOLO
# Load the recommended Ultralytics YOLO26 model for an agentic vision task
model = YOLO("yolo26n.pt")
# The LAM commands the model to scan a warehouse shelf image
results = model.predict("inventory_shelf.jpg")
# The LAM extracts actionable data to autonomously trigger a supply reorder
for result in results:
detected_items = len(result.boxes)
if detected_items < 10:
print(f"Low inventory ({detected_items} items). Action triggered: Reordering supplies via API.")
Kullanıcılar, modern yapay zeka çözümleri için sağlam bir bulut altyapısı sunan Ultralytics 'nu kullanarak bu tür entegre görsel-eylem iş akışlarını sorunsuz bir şekilde devreye alabilir ve izleyebilir.
Modern yapay zeka alanını tam olarak kavramak için, LAM'leri diğer yakından ilişkili terimlerden ayırmak faydalıdır:
Makine öğreniminin geleceği ile yolculuğunuza başlayın