Quantization-Aware Training (QAT) ile uç cihazlar için yapay zeka modellerini optimize ederek kaynakların sınırlı olduğu ortamlarda yüksek doğruluk ve verimlilik sağlayın.
Quantization-Aware Training (QAT), bir sinir ağını (NN ) daha düşük sayısal hassasiyetle dağıtıma hazırlayan gelişmiş bir model optimizasyon tekniğidir. QAT, 32 bit kayan noktalı sayılar (FP32) kullanan standart eğitimin aksine, eğitim veya ince ayar işlemi sırasında 8 bit tamsayı (INT8) hesaplamalarının etkilerini simüle eder. QAT, modelin çıkarım sırasında karşılaşacağı niceleme hatalarının "farkında" olmasını sağlayarak, modelin doğruluktaki potansiyel kaybı en aza indirmek için ağırlıklarını ayarlamasına olanak tanır. Bu, yüksek performansı koruyan kompakt, verimli bir modelle sonuçlanır ve bu da onu kaynak kısıtlı donanımlarda dağıtım için ideal hale getirir.
QAT süreci tipik olarak önceden eğitilmiş bir FP32 modeliyle başlar. Modelin mimarisine, kayan nokta değerlerini daha düşük hassasiyetli tamsayılara ve geri dönüştürme etkisini taklit eden "sahte" niceleme düğümleri eklenir. Model daha sonra bir eğitim veri kümesi üzerinde yeniden eğitilir. Bu yeniden eğitim aşamasında model, standart geri yayılım yoluyla niceleme ile ilişkili bilgi kaybına uyum sağlamayı öğrenir. Bu, modelin azaltılmış hassasiyete daha az duyarlı olan daha sağlam bir ağırlık kümesi bulmasını sağlar. PyTorch ve TensorFlow gibi önde gelen derin öğrenme çerçeveleri, QAT iş akışlarını uygulamak için sağlam araçlar ve API'ler sunar.
QAT genellikle bir başka yaygın model niceleme yöntemi olan Eğitim Sonrası Niceleme (PTQ) ile karşılaştırılır. Temel fark, niceleme işleminin ne zaman uygulandığında yatmaktadır.
Quantization-Aware Training, verimliliğin önemli olduğu kaynak kısıtlı ortamlarda sofistike yapay zeka modellerini dağıtmak için hayati önem taşır.
QAT, model dağıtım optimizasyonuna yönelik çeşitli tekniklerden biridir ve maksimum verimlilik için genellikle diğerleriyle birlikte kullanılır.
Ultralytics, modelleri QAT iş akışlarıyla uyumlu ONNX, TensorRT ve TFLite gibi çeşitli formatlara aktarmayı destekler ve Intel ve NVIDIA gibi şirketlerin çeşitli donanımlarında verimli dağıtım sağlar. QAT için optimize edilmiş modellerinizi Ultralytics HUB gibi platformları kullanarak yönetebilir ve dağıtabilirsiniz. QAT'den sonra ilgili metrikleri kullanarak model performansını değerlendirmek, doğruluk gereksinimlerinin karşılandığından emin olmak için çok önemlidir.