Descubra cómo Edge AI permite el procesamiento de IA en tiempo real, seguro y eficiente en los dispositivos, transformando industrias como la atención médica y los vehículos autónomos.
Edge AI crea un entorno informático descentralizado en el que inteligencia artificial (IA) y aprendizaje automático (ML) se procesan directamente en un dispositivo local, en lugar de depender de servidores remotos. Al realizar el procesamiento de datos cerca de la fuente, como como en sensores, cámaras o pasarelas IoT, Edge AI reduce significativamente la latencia y el uso de ancho de banda. Este enfoque es esencial para aplicaciones que requieren inferencia en tiempo real donde los milisegundos importan o en entornos con conectividad a Internet inestable. El cambio del procesamiento centralizado al extremo permite a los a los dispositivos a tomar decisiones independientes la privacidad de los datos al mantener la información en el hardware local.
En un flujo de trabajo típico de Edge AI, un dispositivo físico recopila datos a través de sensores de entrada. En lugar de transmitir datos en bruto a un centro de computación en la nube, el dispositivo utiliza un microprocesador integrado o un acelerador especializado, como un módulo módulo NVIDIA Jetson o un Google Coral Edge TPU- paraejecutar modelos de ML localmente.
Para funcionar eficazmente en dispositivos con recursos limitados, los modelos suelen someterse a procesos de optimización. Técnicas como cuantificación de modelos y y la poda de modelos reducen el tamaño y la complejidad computacional de las redes neuronales sin sacrificar significativamente la precisión. Marcos optimizados como TensorRT e Intel OpenVINO, actúan como motor de inferencia para acelerar estos modelos arquitecturas de hardware específicas.
Aunque a menudo se utilizan juntos, conviene distinguir entre estos dos conceptos relacionados:
El despliegue de Edge AI está transformando las industrias al permitir operaciones autónomas y análisis más inteligentes.
El despliegue de un modelo en un dispositivo periférico suele implicar la exportación de un modelo entrenado a un formato independiente del hardware. El sitio ONNX (Intercambio abierto de redes neuronales) es un estándar que permite que los modelos funcionen en varias plataformas.
El siguiente ejemplo muestra cómo exportar un modelo YOLO11 ligero, que es ideal para el despliegue en el borde debido a su velocidad y eficacia:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
La implementación de la IA en los bordes presenta desafíos, principalmente en relación con los limitados recursos de energía y memoria de los dispositivos de borde en comparación con los grandes centros de datos. Los desarrolladores deben equilibrar el rendimiento del modelo con el consumo de energía, a menudo utilizando diseños de sistema en chip (SoC ) de empresas como Qualcomm o Ambarella.
De cara al futuro, la integración de las redes 5G mejorará aún más la Edge AI al proporcionar la conectividad de alta velocidad necesaria para la coordinación de dispositivos, conocida como inteligencia de enjambre. Además técnicas como el aprendizaje federado permiten a los mejorar en colaboración los modelos globales, manteniendo los datos en bruto descentralizados y privados.