Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Uzun Kısa Süreli Bellek (LSTM)

Uzun Kısa Süreli Bellek (LSTM) ağlarının sıralı verileri işlemede nasıl başarılı olduğunu, RNN sınırlamalarının üstesinden nasıl geldiğini ve NLP ve tahminleme gibi AI görevlerine nasıl güç verdiğini keşfedin.

Uzun Kısa Süreli Bellek (LSTM), daha geniş bir aile içinde özelleşmiş bir mimaridir. Tekrarlayan Sinir Ağları (RNN'ler) sıralı verileri işlemek ve uzun vadeli bağımlılıkları etkili bir şekilde yakalamak için tasarlanmıştır. Standart ileri beslemenin aksine Girdileri izole olarak işleyen ağlar, LSTM'ler zaman içinde devam eden dahili bir "hafıza" tutar, metin, ses ve finansal veriler gibi dizilerdeki örüntüleri öğrenmelerine olanak tanır. Bu yetenek, bir olarak bilinen geleneksel RNN'lerdeki önemli sınırlama kaybolan gradyan problemi, burada ağ sırasında uzun bir sıralamada önceki adımlardan gelen bilgileri hatırlamakta zorlanır model eğitimi. Benzersiz bir geçit mekanizması kullanarak, LSTM'ler bilgiyi seçici olarak hatırlayabilir veya unutabilir, bu da onları bilim tarihinde temel bir teknoloji haline getirir. derin öğrenme (DL).

LSTM'ler Nasıl Çalışır

Bir LSTM'nin temel yeniliği, genellikle tüm LSTM boyunca çalışan bir konveyör bant olarak tanımlanan hücre durumudur. Sadece küçük doğrusal etkileşimlerle ağın zinciri. Bu yapı, bilginin ağ boyunca akmasını sağlar değişmez, uzun diziler boyunca bağlam korunur. LSTM bu akışı üç farklı kapı kullanarak düzenler, bunlar tipik olarak sigmoid sinir ağı katmanlarından oluşur ve noktasal çarpma işlemleri:

  • Unut Kapısı: Önceki hücre durumundan hangi bilgilerin artık alakalı olmadığını belirler ve atılmalıdır.
  • Giriş Kapısı: Mevcut giriş adımından hangi yeni bilginin yeterince önemli olduğuna karar verir. hücre durumunda saklanır.
  • Çıkış Kapısı: Hücre durumunun hangi kısımlarının bir sonraki gizli duruma gönderilmesi gerektiğini kontrol eder, genellikle kullanarak tanh (hiperbolik tanjant) aktivasyonu ölçek değerleri.

Bu sofistike tasarım, LSTM'lerin, ilgili bilgi ile ilgili bilginin elde edileceği nokta arasındaki boşluğun Christopher Olah'ın ünlü eserinde görselleştirilen bir kavram olan LSTM'leri anlamak için rehber.

Gerçek Dünya Uygulamaları

LSTM'ler ilerlemede etkili olmuştur Yapay Zeka (AI) çeşitli endüstrilerdeki yetenekleri. Zamansal dinamikleri anlama yetenekleri, onları aşağıdakiler için ideal kılar:

  1. Doğal Dil İşleme (NLP): Aşağıdaki gibi görevlerde makine çevirisi, LSTM'ler bir bir dilde cümle ve daha önce görünen kelimelerin bağlamını koruyarak başka bir dilde çeviri oluşturmak cümle içinde. Benzer şekilde, içinde duyarlılık analizi, model şunları anlayabilir Paragrafın başındaki bir değiştiricinin (örn. "değil") sondaki bir sözcüğü nasıl olumsuzladığı (örn, "tavsiye edilir").
  2. Video Analizi ve Eylem Tanıma: Bir yandan Bilgisayarla Görme (CV) modelleri gibi YOLO11 statik görüntülerdeki nesneleri tespit etmede mükemmeldir, LSTM'ler tarafından çıkarılan görüntü özellikleri dizilerini işleyebilir. Evrişimsel Sinir Ağı (CNN) "koşmak" veya "el sallamak" gibi zaman içindeki eylemleri tanımak için. Bu kombinasyon boşluğu dolduruyor mekansal algılama ve zamansal video anlayışı.

İlgili Mimarilerle Karşılaştırma

LSTM'leri benzer dizi modelleme tekniklerinden ayırmak faydalı olacaktır:

  • RNN vs. LSTM: Standart bir RNN basit bir tekrarlama yapısına sahiptir (genellikle tek bir tanh katmanı) ancak gradyan kararsızlığı nedeniyle uzun menzilli bağımlılıkları öğrenmede başarısız olur. LSTM'ler çok kapılı yapıyı Bunu çöz.
  • GRU'ya karşı LSTM: The Geçitli Tekrarlayan Birim (GRU) bir LSTM'nin unutma ve giriş kapılarını tek bir güncelleme kapısında birleştiren basitleştirilmiş çeşidi. GRU'lar hesaplama açısından daha verimli olması ve genellikle benzer performans göstermesi, onları şu durumlarda popüler bir seçim haline getirmektedir bilgi işlem kaynakları sınırlıdır.
  • Transformatör vs. LSTM: Modern Transformatör mimarisi, aşağıdakilere dayanır kendi kendine dikkat mekanizmaları, büyük ölçüde NLP'de LSTM'ler. Transformatörler tüm dizileri sıralı olarak değil paralel olarak işleyerek daha hızlı GPU ' lar üzerinde eğitim ve daha iyi kullanım küresel bağlamda.

Uygulama Örneği

Aşağıdaki örnekte standart bir LSTM katmanının nasıl tanımlanacağı gösterilmektedir PyTorch. Bu kod parçacığı bir katmanı başlatır ve bir sıralı verilerin kukla yığını, yaygın bir iş akışı zaman serisi analizi.

import torch
import torch.nn as nn

# Define an LSTM layer: input_dim=10, hidden_dim=20, num_layers=2
lstm_layer = nn.LSTM(input_size=10, hidden_size=20, num_layers=2, batch_first=True)

# Create dummy input: (batch_size=5, sequence_length=3, input_dim=10)
input_seq = torch.randn(5, 3, 10)

# Forward pass: Returns output and (hidden_state, cell_state)
output, (hn, cn) = lstm_layer(input_seq)

print(f"Output shape: {output.shape}")  # Expected: torch.Size([5, 3, 20])

Daha Fazla Okuma ve Kaynak

LSTM'leri daha fazla keşfetmek için orijinaline başvurabilirsiniz Hochreiter ve Schmidhuber tarafından hazırlanan araştırma makalesi konsepti tanıttı. Pratik uygulama ile ilgilenenler için, resmi PyTorch LSTM belgeleri ve TensorFlow Keras LSTM API sağlar kapsamlı kılavuzlar. Ayrıca, aşağıdaki kurslar Stanford Üniversitesi NLP üzerine genellikle teorik dizi modellerinin temellerini derinlemesine incelemektedir. Bu bileşenleri anlamak, karmaşık yapay zeka sistemlerinde ustalaşmak için çok önemlidir, basit konuşmadan metne motorlarından gelişmiş otonom ajanlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın