Edge AI'ın cihazlarda gerçek zamanlı, güvenli ve verimli AI işlemeyi nasıl sağladığını ve sağlık hizmetleri ve otonom araçlar gibi sektörleri nasıl dönüştürdüğünü keşfedin.
Edge AI, merkezi olmayan bir bilgi işlem ortamı yaratır. yapay zeka (AI) ve makine öğrenimi (ML) algoritmaları işlenir Uzak sunuculara güvenmek yerine doğrudan yerel bir cihazda. Veri işlemeyi kaynağın yakınında gerçekleştirerek - örneğin sensörlerde, kameralarda veya IoT ağ geçitlerinde olduğu gibi-Edge AI gecikme süresini ve bant genişliği kullanımını önemli ölçüde azaltır. Bu yaklaşım gerektiren uygulamalar için gereklidir Milisaniyelerin önemli olduğu yerlerde gerçek zamanlı çıkarım, veya internet bağlantısının istikrarsız olduğu ortamlarda. Merkezi işlemlerden uç noktalara geçiş güçlendiriyor cihazların bağımsız kararlar almasını sağlayarak hassas bilgileri saklayarak veri gizliliği yerel donanım.
Tipik bir Edge AI iş akışında, fiziksel bir cihaz giriş sensörleri aracılığıyla veri toplar. Ham veri iletmek yerine bir bulut bilişim merkezine bağlandığında, cihaz bir gömülü mikroişlemci veya özel bir hızlandırıcı - örneğin NVIDIA Jetson modülü veya bir Google Coral Edge TPUML modellerini yerel olarak çalıştırmak TPU.
Kısıtlı kaynaklara sahip cihazlarda etkin bir şekilde çalışabilmek için modeller genellikle optimizasyon süreçlerinden geçer. Gibi teknikler model kuantizasyonu ve model budama, dosya boyutunu ve hesaplama işlemini azaltır olmadan sinir ağlarının karmaşıklığı doğruluktan önemli ölçüde ödün vermek. Optimize edilmiş çerçeveler, gibi TensorRT ve Intel OpenVINOolarak hareket eder. bu modelleri hızlandırmak için çıkarım motoru belirli donanım mimarileri.
Sıklıkla birlikte kullanılsa da, bu iki ilgili kavramı birbirinden ayırmak faydalı olacaktır:
Edge AI'ın yaygınlaşması, otonom operasyonları ve daha akıllı analitiği mümkün kılarak sektörleri dönüştürüyor.
Bir modelin bir uç cihaza dağıtılması genellikle eğitilmiş bir modelin donanımdan bağımsız bir formata aktarılmasını içerir. Bu ONNX (Açık Sinir Ağı Borsası) formatı, modellerin çeşitli platformlarda çalışmasına olanak tanıyan bir standarttır.
Aşağıdaki örnekte, aşağıdaki özellikleri nedeniyle uç dağıtım için ideal olan hafif bir YOLO11 modelinin nasıl dışa aktarılacağı gösterilmektedir hızı ve verimliliği:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
Uç Yapay Zekanın uygulanması, öncelikle uç cihazların sınırlı güç ve bellek kaynakları ile ilgili zorlukları beraberinde getirir büyük veri merkezlerine kıyasla. Geliştiriciler, model performansı ile enerji tüketimini dengelemeli ve genellikle gibi şirketlerin çip üzerinde sistem (SoC) tasarımları Qualcomm veya Ambarella.
İleriye dönük olarak, 5G ağlarının entegrasyonu Edge'i daha da geliştirecektir Sürü zekası olarak bilinen cihaz koordinasyonu için gereken yüksek hızlı bağlantıyı sağlayarak yapay zeka. Ayrıca, federe öğrenme gibi teknikler uç noktalara izin verir Ham verileri merkezi olmayan ve gizli tutarken küresel modelleri işbirliği içinde geliştirmek için cihazlar.
