Tensor Birimleri (TPU'lar) makine öğrenimini nasıl hızlandırıyor keşfedin. Maksimum hız için Ultralytics Edge TPU'lar ve bulut eğitimi için optimize etmeyi öğrenin.
Tensor Birimi (TPU), Google tarafından makine öğrenimi (ML) iş yüklerini hızlandırmak için özel olarak tasarlanmış, uygulamaya özel entegre devre (ASIC) dir. Geniş bir yelpazede bilgi işlem görevlerini yerine getiren genel amaçlı işlemcilerin aksine, TPU'lar sinir ağlarının temelini oluşturan devasa matris işlemlerini optimize etmek için sıfırdan tasarlanmıştır. Bu özel odaklanma, TPU'ların olağanüstü yüksek verim ve enerji verimliliği elde etmesini sağlar ve onları, özellikle Google ekosisteminde, modern yapay zeka (AI) altyapısının temel taşı haline getirir. TPU'lar, karmaşık modellerin eğitimi ve gerçek zamanlı çıkarımların büyük ölçekte çalıştırılması için gereken süreyi azaltmada hayati bir rol oynar.
TPU mimarisi, geleneksel işlemcilerden önemli ölçüde TPU . Standart bir CPU Merkezi İşlem Birimi) sıralı görevlerde ve karmaşık mantıkta üstünlük sağlarken, GPU Grafik İşlem Birimi) grafikler ve genel hesaplamalar için paralel çekirdekler kullan TPU ise sistolik dizi mimarisi TPU . Bu tasarım, verilerin her işlem için belleğe erişmeden binlerce çarpan üzerinden aynı anda akmasını sağlar. Hesaplama yoğunluğunu en üst düzeye çıkararak ve gecikmeyi en aza indirerek, TPU'lar derin öğrenme (DL) uygulamalarında bulunan ağır doğrusal cebir için benzersiz bir şekilde uygundur. .
Bu özel donanım, aşağıdaki gibi çerçeveler için büyük ölçüde optimize edilmiştir TensorFlow gibi çerçeveler için büyük ölçüde optimize edilmiştir ve PyTorchtarafından giderek daha fazla desteklenmektedir. Bu sayede geliştiriciler, kod tabanlarını tamamen yeniden yazmadan büyük temel modelleri eğitebilir veya verimli uç çözümleri uygulayabilirler.
Donanım ortamını anlamak, makine öğrenimi operasyonlarını (MLOps) optimize etmek için çok önemlidir. .
TPU'lar, devasa bulut kümelerinden küçük uç cihazlara kadar çeşitli ortamlarda kullanılır.
Geliştiriciler, özellikle bulut eğitimi için Ultralytics kullanırken veya kenar dağıtımı için modelleri dışa aktarırken Ultralytics için TPU kullanabilirler. Örneğin Edge TPU, modellerin mimarisi için özel olarak nicelendirilmesini ve derlenmesini gerektirir. Geliştiriciler, kenar dağıtımı için modellerin kenar cihazlarında çalıştırılmasını sağlamak için bu tür niceleme ve derleme işlemlerini gerçekleştirmelidir.
Aşağıdaki örnek, YOLO26 modelini TFLite aktarmanın nasıl yapıldığını göstermektedir. Bu, Edge TPU için derleme yapmadan önce gerekli bir adımdır :
from ultralytics import YOLO
# Load the latest lightweight YOLO26 nano model
model = YOLO("yolo26n.pt")
# Export the model to TFLite format
# This creates a '.tflite' file suitable for mobile and edge deployment
# Set int8=True for quantization, which is often required for Edge TPU performance
model.export(format="tflite", int8=True)
Dışa aktarıldıktan sonra, model Edge TPU TPU Edge TPU için daha da derlenebilir, böylece Coral USB Accelerator ile Raspberry Pi gibi cihazlarda verimli bir şekilde çalışabilir. Dağıtımla ilgili daha fazla ayrıntı için, TFLite belgelerini incelemek çok yararlı olabilir. TFLite belgelerini incelemek çok