Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Reformer

Reformer modelini keşfedin: LSH attention ve tersine çevrilebilir katmanlarla uzun diziler için optimize edilmiş, çığır açan bir transformer mimarisi.

Reformer, standartları iyileştirmek için tasarlanmış son derece verimli bir mimaridir Belleği önemli ölçüde azaltarak transformatör modeli Çok uzun dizileri işlerken tüketim ve hesaplama maliyetleri. Geleneksel Transformers devrim yaratırken Doğal Dil İşleme (NLP), Bellek kullanımları dizi uzunluğuna göre dört kat artar, bu da onları uzun belgelerde çalıştırmak için pahalı hale getirir. Bu Reformer bu darboğazı gidererek 1 milyon jetona kadar dizilerin tek bir cihazda işlenmesini sağlar. GPU (Grafik İşlem Birimi), araştırma için yeni olanaklar yaratıyor. Derin Öğrenme (DL).

Reformer'ın Arkasındaki Temel Yenilikler

Reformer, kuadratik $O(L^2)$ yerine doğrusal $O(L)$ karmaşıklık elde etmek için iki temel teknik sunar, büyük miktarda veriyi öncekilerden daha etkili bir şekilde işlemesine olanak tanıyor.

  • Yerelliğe Duyarlı Hashing (LSH) Dikkat: Standart bir dikkat mekanizmasında, her belirteç, hesaplama açısından ağır olan diğer her belirteçle ilgilenir. Reformer benzer vektörleri gruplamak için LSH kullanır kovalara ayırır. Dikkat daha sonra yalnızca bu kovalar içinde hesaplanır ve tam dikkat matrisine şu şekilde yaklaşılır yüksek doğruluk ancak maliyetin çok altında. Bu, modelin girdinin ilgili kısımlarına odaklanmasını sağlar tüm diziyi tarıyor.
  • Tersine Çevrilebilir Artık Katmanlar: Derin eğitim sinir ağları tipik olarak depolamayı gerektirir sırasında gradyanları hesaplamak için her katmandan aktivasyonlar geri yayılım. Reformer tersine çevrilebilir katmanlar, aktivasyonların bellekte depolanmak yerine geriye doğru geçiş sırasında anında yeniden hesaplanmasını sağlar. Bu yenilik, modeli bellek açısından çok daha verimli hale getirerek çok daha derin ağların eğitilmesini sağlar.

Gerçek Dünya Uygulamaları

Kapsamlı bağlamları işleyebilme yeteneği, Reformer'ı aşağıdakilerin anlaşılması gereken görevler için belirgin bir şekilde yararlı kılar Verilerin küresel yapısı çok önemlidir.

  • Genomik Analiz: DNA dizileri milyonlarca uzak unsurların birbirini etkileyebileceği baz çiftlerinden oluşur. Reformer bu uzun dizileri şu amaçlarla alabilir standart modeller için genellikle çok yoğun bellek gerektiren bir görev olan gen işlevlerini tanımlamak veya protein yapılarını tahmin etmek gibi BERT.
  • Uzun Belge Özeti Çıkarma: Hukuk ve finans sektörlerinde, profesyoneller genellikle yüzlerce sayfa uzunluğundaki belgeler. Reformer tabanlı modeller tüm kitapları veya yasal sözleşmeleri bir metin özetleme gerçekleştirmek için tek geçiş veya soru cevaplama, uzun mesafelerde tutarlılığı koruma Tekrarlayan Sinir Ağları (RNN'ler) Bu da kaybolan gradyanlarla mücadele edebilir.
  • Yüksek Çözünürlüklü Görüntü Üretimi: Pikselleri bir dizi olarak ele alarak, Reformer aşağıdakilere uygulanabilir görüntü oluşturma görevleri, tutarlı Bellek tükenmeden piksel piksel yüksek çözünürlüklü görseller.

İlgili Terimlerden Ayrım

Reformer'ı diğer sekans modellerinden ayırmak önemlidir. Bir yandan Longformer ayrıca uzun dizileri hedefler, bir Küresel dikkat ile birleştirilmiş kayan pencere dikkat mekanizması. Buna karşılık, Reformer hashing'e (LSH) dayanır dinamik olarak ilgili belirteçleri bulmak için. Buna ek olarak YOLO11 'de hız için optimize edilmiştir. bilgisayar görüşü, Reformer aşağıdakiler için optimize edilmiştir dizilim modellemesinde bellek verimliliği. Bununla birlikte, her ikisi de kısıtlı sistemlerde performansı en üst düzeye çıkarma hedefini paylaşmaktadır. Donanım.

Verimli Çıkarımın Uygulanması

Reformer özel bir mimari olsa da, verimli çıkarım kavramı yapay zekada evrenseldir. Aşağıdakiler kullanarak nasıl verimli çıkarım yapılacağını göstermektedir. ultralytics bir video akışında - bir tür hız ve bellek için optimizasyonun kritik olduğu sıralı veriler.

from ultralytics import YOLO

# Load the YOLO11n model, optimized for speed and efficiency
model = YOLO("yolo11n.pt")

# Run inference on a video source (treating frames as a sequence)
# stream=True uses a generator to process frames one by one, saving memory
results = model.predict(source="https://ultralytics.com/images/bus.jpg", stream=True)

for result in results:
    # Process each frame's detection results efficiently
    print(f"Detected {len(result.boxes)} objects in current frame.")

Reformer gibi mimarileri anlamak, Avrupa'da gezinmek için çok önemlidir. yapay zekanın evrimi, sınırları zorladıkça ile hesaplamalı olarak mümkün olanın Yapay Zeka (AI). Daha fazlası için verimli model eğitimi hakkında Ultralytics Kılavuzlarını keşfedin.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın