Makine öğreniminde veri sıkıştırma ve ayrıştırma için vektör nicelemeyi keşfedin. VQ-VAE'leri, vektör aramayı ve Ultralytics dağıtımlarını nasıl optimize ettiğini öğrenin.
Vektör niceleme, modern makine öğrenimi (ML) ve dijital sinyal işlemede yaygın olarak kullanılan güçlü bir veri sıkıştırma ve ayrıştırma tekniğidir. Temelde, bu teknik büyük bir sürekli nokta veya vektör kümesini gruplara ayırarak ve her grubu tek bir "prototip" vektörle temsil ederek çalışır; bu vektörler topluca kod kitabı olarak bilinen bir yapı oluşturur. Sürekli yüksek boyutlu vektörleri bu ayrık kod kitabı girdilerine eşleyerek, sistemler bellek kullanımını önemli ölçüde azaltırken etkili boyut indirgemesi için verilerin temel anlamsal özelliklerini koruyabilir.
Günümüz derin öğrenmede (DL), bu kavram Vektör Kuantize Edilmiş Varyasyonel Otokodlayıcı (VQ-VAE) tarafından yaygın bir şekilde popüler hale getirilmiştir. Özellik çıkarma işlemini gerçekleştirmek için sürekli bir gizli uzay öğrenen standart otokodlayıcıların aksine, VQ-VAE’ler ayrık bir temsil öğrenir. Bu, üretici modellerin görüntüleri, sesleri veya videoları, Büyük Dil Modelleri'nin (LLM'ler) metin girdilerini işleme biçimine benzer şekilde, ayrık belirteçler dizisi olarak ele almasına olanak tanır. Erken uygulamaların modern belirteç tabanlı görme sistemlerinin yolunu nasıl açtığını görmek için ayrık temsil öğrenimi üzerine temel araştırmaları inceleyebilirsiniz.
Vektör niceleme, performans ve bellek verimliliğinin hayati önem taşıdığı birçok gerçek dünya yapay zeka uygulamasında kritik bir rol oynar:
Vektör niceleme ile benzer terimler arasındaki ince farkları anlamak, verimli bir bilgisayar görme (CV) mimarisi tasarlarken faydalıdır:
Vektör nicelleştirmenin pratikte sürekli girdileri ayrık simgelere nasıl eşlediğini görmek için, PyTorch kullanarak Öklid mesafelerini PyTorch önceden tanımlanmış bir kod kitabında en yakın prototipi bulabilirsiniz:
import torch
# Define a continuous input batch and a discrete codebook vocabulary
inputs = torch.randn(4, 128) # 4 input vectors of dimension 128
codebook = torch.randn(10, 128) # 10 discrete prototype vectors
# Compute distances and find the nearest codebook index for each input
distances = torch.cdist(inputs, codebook)
quantized_indices = torch.argmin(distances, dim=1)
# Retrieve the discrete quantized vectors corresponding to the inputs
quantized_vectors = codebook[quantized_indices]
tensor yerel olarak hesaplanması ve bu işlemlerin optimize edilmesi konusunda ayrıntılı bilgi için resmi PyTorch belgelerine bakın.
Optimize edilmiş gömülü özellikleri iş akışınıza entegre etmek için sağlam araçlara ihtiyaç vardır. Ultralytics , eğitim verilerinin düzenlenmesine ve en gelişmiş görsel modellerin eğitilmesine yönelik uçtan uca bir ortam sunar. Veri yönetimini kolaylaştırarak ve model dağıtımını basitleştirerek, geliştiriciler vektör nicelemesine uygun yüksek kaliteli görsel özellikleri zahmetsizce oluşturabilir; bu da daha hızlı nesne algılama ve büyük ölçekli medya arama uygulamalarına yol açar.

Makine öğreniminin geleceği ile yolculuğunuza başlayın