Tensor İşleme Birimlerinin (TPU'lar) eğitim, çıkarım ve nesne algılama gibi makine öğrenimi görevlerini benzersiz bir verimlilikle nasıl hızlandırdığını keşfedin.
Tensor İşleme BirimiTPU) özel olarak geliştirilmiş bir uygulamaya özel entegre devre (ASIC) Google tarafından özellikle hızlandırmak için tasarlandı makine öğrenimi (ML) iş yükleri. Aksine TPU'lar, genel amaçlı işlemcilerin muazzam hesaplama taleplerini karşılamak üzere sıfırdan tasarlanmıştır. sinir ağları, özellikle karmaşık matris eğitim ve çıkarım sırasında gereken işlemler. TPU'lar, donanımı bu özel görevler için optimize ederek şunları sunar önemli ölçüde daha yüksek verim ve enerji verimliliği, onları modern teknolojinin temel taşı haline getiriyor yapay zeka (AI) bulut ve uç ortamlarda altyapı.
Bir TPU 'nun temel gücü, temel matematiksel işlem olan matris çarpımını gerçekleştirme yeteneğinde yatmaktadır. derin öğrenmede (DL) operasyon, inanılmaz hızlar. Standart işlemciler talimatları sıralı olarak veya sınırlı paralellikle yürütürken, TPU'lar bir veri akışına izin veren sistolik dizi mimarisi aynı anda binlerce çarpan aracılığıyla. Bu tasarım bellek erişim gecikmesini en aza indirir ve hesaplama yoğunluğu.
TPU'lar Google Cloud ekosistemine yoğun bir şekilde entegre edilmiştir ve şunları sağlar kitlesel eğitim için ölçeklenebilir kaynaklar temel modelleri. Ayrıca, optimize edilmişlerdir gibi çerçeveler için TensorFlow ve giderek tarafından desteklenmektedir PyTorchgeliştiricilerin aşağıdakilerden yararlanmasına olanak tanır Tercih ettikleri kodlama ortamını değiştirmeden yüksek performanslı donanım.
Farklı işlem birimleri arasındaki farkın anlaşılması optimizasyon için hayati önem taşır model eğitimi ve dağıtım iş akışları.
TPU'lar hem devasa bulut tabanlı eğitimde hem de verimli uç dağıtımında kritik bir rol oynamaktadır.
İle çalışan geliştiriciler için bilgisayarla görme (CV), modelleri dağıtma Düşük güçlü cihazlar genellikle standart ağırlıkların Edge TPU'larla uyumlu bir formata dönüştürülmesini gerektirir. Ultralytics kütüphane bu model dağıtım sürecini kolaylaştırır Kullanıcıların modelleri doğrudan TensorFlow Lite Edge TPU formatına aktarmasına izin vererek.
Bu süreç genellikle şunları içerir hassasiyeti azaltan model kuantizasyonu özel donanım kısıtlamalarına uyması için sayıların (örneğin, 32 bit float'tan 8 bit tamsayıya) doğruluğu korumak.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to Edge TPU format (int8 quantization)
# This creates a 'yolo11n_edgetpu.tflite' file for use on Coral devices
model.export(format="edgetpu")
Bu modeller dışa aktarıldıktan sonra aşağıdaki gibi görevler için dağıtılabilir gömülü sistemler üzerinde nesne algılama Minimum güç tüketimi ile hızlı çıkarım hızları. Bu iş akışıyla ilgili daha fazla ayrıntı için aşağıdaki kılavuza bakın Kenar TPU entegrasyonu.
