NVIDIA GPU'larda daha hızlı ve verimli çıkarım için TensorRT ile derin öğrenme modellerini optimize edin. YOLO ve yapay zeka uygulamaları ile gerçek zamanlı performans elde edin.
TensorRT , yüksek performanslı bir Derin Öğrenme (DL) çıkarım optimize edici ve çalışma zamanı kütüphanesidir. NVIDIA. NVIDIA GPU'larda çalışan derin öğrenme uygulamaları için çıkarım verimini en üst düzeye çıkarmak ve çıkarım gecikmesini en aza indirmek için özel olarak tasarlanmıştır. TensorRT , çeşitli çerçevelerden eğitimli sinir ağı modellerini alır ve dağıtım için son derece optimize edilmiş bir çalışma zamanı motoru oluşturmak üzere çok sayıda optimizasyon uygular. Bu süreç, özellikle hız ve yanıt verme hızının kritik olduğu üretim ortamlarında modelleri verimli bir şekilde dağıtmak için çok önemlidir.
TensorRT , çeşitli sofistike teknikler sayesinde önemli performans iyileştirmeleri elde eder:
İş akışı tipik olarak eğitilmiş bir modelin alınmasını içerir (örn. PyTorch veya TensorFlowgibi bir ara format aracılığıyla ONNX) ve TensorRT iyileştiricisine besler. TensorRT modeli ayrıştırır, belirtilen hassasiyete ve hedef GPU'ya göre grafik optimizasyonları ve hedefe özgü optimizasyonlar gerçekleştirir ve son olarak TensorRT motoru olarak bilinen optimize edilmiş bir çıkarım planı oluşturur. Bu motor dosyası daha sonra hızlı çıkarım için dağıtılabilir.
TensorRT , makine öğrenimi yaşam döngüsünün model dağıtım aşaması için oldukça önemlidir. Çıkarsamayı önemli ölçüde hızlandırma yeteneği, gerçek zamanlı çıkarım gerektiren uygulamalar için vazgeçilmez kılar, örneğin aşağıdaki gibi modellerle nesne algılama Ultralytics YOLO, görüntü segmentasyonu ve doğal dil işleme. gibi araçların yanı sıra NVIDIA yazılım yığınının önemli bir bileşenidir. CUDAgeliştiricilerin güçlü veri merkezi GPU 'larından Edge AI için enerji tasarruflu NVIDIA Jetson modüllerine kadar NVIDIA donanımının tüm potansiyelinden yararlanmasını sağlar. Ultralytics , sorunsuz entegrasyon sağlayarak kullanıcıların YOLO modellerini, genellikle Triton Çıkarım Sunucusu gibi platformlarla kullanılan optimize edilmiş dağıtım için TensorRT formatına aktar masına olanak tanır.
TensorRT , hızlı ve verimli yapay zeka çıkarımına ihtiyaç duyulan çeşitli sektörlerde yaygın olarak kullanılmaktadır:
TensorRT özellikle NVIDIA GPU'lar için çıkarım optimizasyonuna odaklanırken ekosistemde başka araçlar da mevcuttur:
TensorRT'nin temel farklılığı, NVIDIA donanımı ile derin entegrasyonu ve GPU'lar için uyarlanmış agresif optimizasyon stratejileridir ve genellikle daha genel amaçlı çalışma zamanlarına kıyasla NVIDIA platformlarında en yüksek performans kıyaslamalarını (bkz. MLPerf Benchmarks) sağlar. Ultralytics HUB gibi platformlar kullanılarak modellerin ve dağıtımların yönetilmesi kolaylaştırılabilir.