Узнайте, как Edge AI обеспечивает обработку ИИ в реальном времени, безопасную и эффективную обработку ИИ на устройствах, преобразуя такие отрасли, как здравоохранение и автономные транспортные средства.
Edge AI создает децентрализованную вычислительную среду, в которой искусственный интеллект (ИИ) и алгоритмы машинного обучения (ML) обрабатываются непосредственно на локальном устройстве, а не на удаленных серверах. Благодаря обработке данных вблизи источника, например например, на датчиках, камерах или IoT-шлюзах, Edge AI значительно снижает задержки и потребление полосы пропускания. Такой подход необходим для приложений, требующих выводы в реальном времени, где важны миллисекунды, или в средах с нестабильным интернет-соединением. Переход от централизованной обработки к пограничной позволяет устройствам принимать самостоятельные решения, повышая конфиденциальность данных за счет сохранения конфиденциальной информации на локальном оборудовании.
В типичном рабочем процессе Edge AI физическое устройство собирает данные с помощью входных датчиков. Вместо того чтобы передавать необработанные данные в облачный вычислительный центр, устройство использует встроенный микропроцессор или специализированный ускоритель, например модуль NVIDIA Jetson или Google Coral Edge TPUлокального запуска ML-моделей.
Чтобы эффективно работать на устройствах с ограниченными ресурсами, модели часто подвергаются процессу оптимизации. Такие методы, как квантование модели и обрезка моделей, уменьшают размер файла и вычислительную сложность нейронных сетей без без существенного снижения точности. Оптимизированные фреймворки, такие как TensorRT и Intel OpenVINOвыступают в качестве механизм вывода для ускорения этих моделей на конкретных аппаратных архитектур.
Несмотря на то, что эти два понятия часто используются вместе, полезно проводить различие между ними:
Внедрение Edge AI преобразует отрасли, обеспечивая автономные операции и более интеллектуальную аналитику.
Развертывание модели на пограничном устройстве часто предполагает экспорт обученной модели в формат, не зависящий от аппаратного обеспечения. На сайте ONNX (Open Neural Network Exchange) это стандарт, позволяющий запускать модели на различных платформах.
Следующий пример демонстрирует, как экспортировать легкую модель YOLO11 , которая идеально подходит для развертывания на границе благодаря благодаря своей скорости и эффективности:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
Реализация Edge AI сопряжена с определенными трудностями, в первую очередь связанными с ограниченными ресурсами мощности и памяти устройств на границе сети. по сравнению с огромными центрами обработки данных. Разработчикам приходится балансировать между производительностью модели и энергопотреблением, поэтому часто используются системы-на-кристалле (SoC) от таких компаний, как Qualcomm или Ambarella.
В перспективе интеграция сетей 5G будет способствовать дальнейшему развитию Edge ИИ, обеспечивая высокоскоростное соединение, необходимое для координации устройств, известной как "роевой интеллект". Кроме того, такие методы, как федеративное обучение, позволяют пограничным устройствам устройства совместно совершенствовать глобальные модели, сохраняя при этом децентрализованность и конфиденциальность исходных данных.