Explore Edge AI y aprenda a implementar Ultralytics en hardware local para obtener inferencias en tiempo real, reducir la latencia y mejorar la privacidad de los datos en el borde.
La IA periférica se refiere al despliegue de algoritmos y modelos de inteligencia artificial (IA) directamente en dispositivos de hardware locales, como teléfonos inteligentes, sensores IoT, drones y vehículos conectados, en lugar de depender de centros de computación en la nube centralizados . Este enfoque descentralizado permite que los datos se procesen en el origen de su creación, lo que reduce significativamente la latencia que implica el envío de información a servidores remotos. Al ejecutar tareas de aprendizaje automático (ML) a nivel local, los dispositivos pueden tomar decisiones instantáneas, funcionar de manera confiable sin conexión a Internet y mejorar la privacidad de los datos al mantener la información confidencial en el propio dispositivo.
El núcleo de la IA periférica consiste en ejecutar un motor de inferencia en un sistema integrado. Dado que los dispositivos periféricos suelen tener una duración de batería y una potencia computacional limitadas en comparación con los servidores en la nube, los modelos de IA deben ser muy eficientes. Los desarrolladores suelen emplear técnicas como la cuantificación de modelos o la poda de modelos para comprimir grandes redes neuronales sin sacrificar una precisión significativa .
A menudo se utilizan aceleradores de hardware especializados para gestionar estas cargas de trabajo de manera eficiente. Algunos ejemplos son la plataforma NVIDIA para robótica y Google Edge TPU para inferencia de bajo consumo. Los marcos de software también desempeñan un papel fundamental; herramientas como TensorRT y TFLite optimizan los modelos específicamente para estos entornos limitados, lo que garantiza una rápida inferencia en tiempo real.
Aunque los términos se utilizan a menudo de forma intercambiable, es útil distinguir entre ellos:
La IA periférica está transformando las industrias al permitir la toma de decisiones autónoma en situaciones críticas:
La implementación de un modelo en el borde suele implicar el entrenamiento de un modelo en un entorno de alta computación y su posterior exportación a un formato compatible con los dispositivos periféricos, como ONNX o OpenVINO. La Ultralytics simplifica este flujo de trabajo, permitiendo a los usuarios entrenar y exportar automáticamente modelos para diversos objetivos periféricos.
El siguiente ejemplo muestra cómo exportar un modelo YOLO26 ligero —diseñado específicamente para ser eficiente— a un formato adecuado para su implementación en dispositivos móviles y periféricos.
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
Las implementaciones avanzadas en el borde suelen utilizar tecnologías de contenedorización como Docker para empaquetar aplicaciones, lo que garantiza que se ejecuten de forma coherente en diferentes arquitecturas de dispositivos, desde unidades Raspberry Pi hasta puertas de enlace industriales.