Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Reformer

Reformer modelini keşfedin: LSH attention ve tersine çevrilebilir katmanlarla uzun diziler için optimize edilmiş, çığır açan bir transformer mimarisi.

Reformer, standart Transformer mimarisinin son derece verimli bir evrimidir ve özellikle minimum bellek tüketimi ile son derece uzun veri dizilerini işlemek için tasarlanmıştır. 2020 yılında Google tarafından tanıtılan Reformer, geleneksel Transformer'larda kritik bir darboğazı ele almaktadır: dikkat mekanizmasının kare maliyeti. Standart modeller, dizi uzunluğu arttıkça bellek kullanımları patladığından uzun belgeleri veya yüksek çözünürlüklü görüntüleri işlemekte zorlanırken, Reformer bu karmaşıklığı neredeyse doğrusal seviyelere indirmek için yeni teknikler kullanır. Bu çığır açan gelişme, derin öğrenme modellerinin tek bir GPU Grafik İşlem Birimi) üzerinde bir milyona kadar token içeren bağlamları analiz etmesine olanak tanıyarak, kapsamlı bağlam saklama gerektiren görevler için yeni olanaklar sunar.

Verimlilikte Önemli Yenilikler

Reformer, model eğitimi sırasında bilginin depolanma ve işlenme şeklini temelden değiştiren iki temel teknik yenilik sayesinde olağanüstü bir performans sergiliyor. .

  • Yerel Duyarlı Karma (LSH) Dikkat:Standart bir Transformer'da, her bir token (kelime veya piksel) diğer tüm tokenlere dikkat etmeli ve büyük bir ilişki matrisi hesaplamalıdır. Reformer, bu kapsamlı aramayı, benzer vektörleri "kovalara" gruplandıran bir teknik olan LSH ile değiştirir. Model, olası her bağlantıyı kontrol etmek yerine, yalnızca bu yerel kovalar içindeki dikkati hesaplar. Bu yaklaşım oldukça doğrudur, ancak hesaplama açısından çok daha ucuzdur ve sinir ağının, ilgisiz veri noktalarına kaynak harcamadan ilgili bilgilere odaklanmasını sağlar.
  • Tersine Çevrilebilir Kalıntı Katmanlar:Derin ağlar genellikle, geri yayılım sırasında gradyanları hesaplamak için her katmanın aktivitesini bellekte depolamaya ihtiyaç duyar. Ağlar derinleştikçe, bu bellek gereksinimi hızla artar. Reformer, herhangi bir katmanın aktivasyonlarının bir sonraki katmanın çıktısından yeniden hesaplanmasına olanak tanıyan tersine çevrilebilir katmanlar (RevNets) kullanır. Bu, modelin tüm ağ geçmişi için ara durumları depolamasına gerek olmadığı anlamına gelir, böylece bellek yükü önemli ölçüde azalır ve çok daha derin mimarilerin eğitimi mümkün hale gelir.

Gerçek Dünya Uygulamaları

Reformer, uzun bağlamları işleme yeteneği nedeniyle, uzak veri noktaları arasındaki ilişkinin kritik olduğu alanlarda özellikle yararlıdır .

  1. Genomik Dizi Analizi:DNA zincirleri son derece uzundur ve genellikle milyonlarca baz çifti içerir. BERT gibi geleneksel modeller, bir gen dizisinin tamamını tek seferde işleyemez ve uzak gen belirteçlerinin birbirini nasıl etkilediği bağlamını kaybedebilir. Reformer Reformer, bu devasa dizileri tek seferde alabilir ve araştırmacıların gen fonksiyonlarını tanımlamasına ve protein yapılarını daha doğru bir şekilde tahmin etmesine yardımcı olur. Bu özellik, sağlık hizmetleri ve ilaç keşfinde yapay zekanın ilerlemesi için hayati önem taşır.
  2. Uzun Biçimli Belge Oluşturma:Tutarlı hikayeler yazmak veya kitapların tamamını özetlemek, metnin başından itibaren ayrıntıları hatırlayarak sonunu oluşturan bir model gerektirir. Standart dil modelleri genellikle uzun mesafelerde "hafıza kaybı" sorunu yaşar. Reformer, uzun hukuki sözleşmeler, teknik kılavuzlar veya romanlar için sağlam metin özetleme ve oluşturma imkanı sunar ve anlatı tutarlılığını Tekrarlayan Sinir Ağları (RNN'ler) daha iyi korur.

İlgili Terimlerden Ayrım

Reformer'ı diğer verimlilik odaklı mimarilerden ayırmak faydalıdır.

  • Reformer ve Longformer: Her iki model de uzun dizilim sorununu çözmeyi amaçlamaktadır. Longformer, belirli belirteçler için küresel dikkat ile birleştirilmiş kayan pencere dikkat modeli (yerel bağlam) kullanır. Reformer ise, dizilimdeki herhangi bir yerde ilgili belirteçleri dinamik olarak bulmak için hash tabanlı sıralama (LSH) kullanır.
  • Reformer ve YOLO26: Reformer uzun diziler (metin, ses, genomik veriler) için belleği optimize ederken, YOLO26 bilgisayar görüşünde hız ve doğruluk için optimize edilmiş bir nesne algılama modelidir. Reformer sıralı bağımlılıkları işlerken, YOLO26 görüntülerdeki uzamsal özellikleri işler.

Uygulamada Uzun Dizileri İşleme

Reformer belirli bir mimari olsa da, uzun dizileri verimli bir şekilde yönetme kavramı evrenseldir. Esasen bir dizi görüntüden oluşan videolarla çalışırken, verimli veri işleme çok önemlidir. Aşağıdaki örnek, bunun nasıl kullanılacağını göstermektedir. ultralytics Bir video akışını, bir dizi modelinin belirteçleri işlediği gibi, kare kare işlemek ve bellek verimliliğini sağlamak. model processes tokens, ensuring memory efficiency.

import cv2
from ultralytics import YOLO

# Load the YOLO26 model, optimized for efficiency and accuracy
model = YOLO("yolo26n.pt")

# Open a video file (simulating a long data sequence)
video_path = "path/to/long_video.mp4"
cap = cv2.VideoCapture(video_path)

# Process the sequence frame by frame to conserve memory
while cap.isOpened():
    success, frame = cap.read()
    if success:
        # Run inference on the current frame
        results = model(frame)

        # Display the annotated frame
        cv2.imshow("YOLO26 Inference", results[0].plot())

        # Break loop on 'q' key press
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        break

cap.release()
cv2.destroyAllWindows()

Bu verimlilik mekanizmalarını anlamak, sınırlı kaynaklara sahip donanımlarda yapay zeka çözümleri uygulamak isteyen veya büyük veri kümeleriyle uğraşan geliştiriciler için çok önemlidir. Model performansını optimize etme hakkında daha fazla bilgi için Ultralytics inceleyin.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın