Anlamsal ve örnek segmentasyonu birleştirmek için panoptik segmentasyonu keşfedin. Ultralytics AI projeleri için nasıl hassas sahne anlayışı sağladığını öğrenin.
Panoptik segmentasyon, iki farklı görüntü analizi biçimini birleştiren kapsamlı bir bilgisayar görme (CV) görevidir: semantik segmentasyon ve örnek segmentasyon. Geleneksel yöntemler bu görevleri ayrı ayrı ele alırken (genel olarak "gökyüzü" veya "çim" gibi arka plan bölgelerini sınıflandırmak veya "araba" veya "kişi" gibi belirli nesneleri algılamak), panoptik segmentasyon bunları tek bir uyumlu çerçeve içinde birleştirir. Bu yaklaşım, bir görüntüdeki her piksele benzersiz bir değer atayarak, sayılabilir nesneler ("şeyler" olarak adlandırılır) ile amorf arka plan bölgeleri ("eşyalar" olarak adlandırılır) arasında ayrım yapan eksiksiz bir sahne anlayışı sağlar. Her pikselin hesaba katılması ve sınıflandırılmasını sağlayarak, bu teknik, izole algılama yöntemlerinden daha yakından insan görme algısını taklit eder.
Panoptik segmentasyonu tam olarak kavramak için, işlediği görsel bilginin ikilemini anlamak faydalıdır. Bu görev, görsel dünyayı iki ana kategoriye ayırır:
Bu ayrım, gelişmiş yapay zeka (AI) sistemleri için çok önemlidir ve bu sistemlerin belirli nesnelerle etkileşimde bulunurken ortamlarda gezinmelerini sağlar.
Modern panoptik segmentasyon mimarileri, genellikle bir görüntüden zengin özellik temsillerini çıkarmak için Convolutional Neural Network (CNN) veya Vision Transformer (ViT) gibi güçlü bir derin öğrenme (DL) backbone kullanır. Ağ genellikle iki dala veya "kafaya" ayrılır: 1.
Bir füzyon modülü veya son işlem adımı, bu çıktılar arasındaki çakışmaları çözer; örneğin, bir pikselin "kişi" örneğine mi yoksa arkasındaki "arka plan" duvarına mı ait olduğuna karar verir ve nihai, üst üste binmeyen panoptik segmentasyon haritasını oluşturur.
Panoptik segmentasyonun bütünsel yapısı, güvenlik ve bağlamın önemli olduğu sektörler için vazgeçilmez kılar.
Tam panoptik eğitim karmaşık olabilir, ancak geliştiriciler Ultralytics kullanarak panoptik yapbozun kritik bir bileşeni olan yüksek hassasiyetli örnek segmentasyonuelde edebilirler. Bu son teknoloji model, gerçek zamanlı performans sunar ve uç dağıtım için optimize edilmiştir.
Aşağıdaki Python , önceden eğitilmiş bir segmentasyon modelini yüklemeyi ve farklı nesneleri izole etmek için çıkarım yapmayı gösterir :
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Run inference on an image to segment individual instances
# The model identifies 'things' and generates pixel-perfect masks
results = model("https://ultralytics.com/images/bus.jpg")
# Display the resulting image with overlaid segmentation masks
results[0].show()
Eğitim verilerini yönetmek ve açıklama sürecini otomatikleştirmek isteyen ekipler için Ultralytics , veri kümesi yönetimi ve model eğitimi için bir dizi araç sunar. Yüksek kaliteli veri açıklaması, segmentasyon görevleri için çok önemlidir, çünkü modellerin etkili bir şekilde öğrenmesi için hassas piksel düzeyinde etiketler gerekir.
Segmentasyon türleri arasındaki nüansları anlamak, projeniz için doğru modeli seçmek açısından çok önemlidir:
Bu görevlerde kullanılan veri kümesi formatlarını daha ayrıntılı incelemek için, segmentasyon performansını ölçmek için standart bir benchmark olan COCO belgelerini inceleyebilirsiniz. benchmark