Descubra cómo Edge AI permite un procesamiento de IA en tiempo real, seguro y eficiente en los dispositivos, transformando sectores como la sanidad y los vehículos autónomos.
La IA periférica consiste en ejecutar algoritmos de inteligencia artificial (IA ) directamente en dispositivos de hardware locales, conocidos como dispositivos periféricos, como teléfonos inteligentes, cámaras, sensores o sistemas integrados. En lugar de enviar los datos a servidores remotos de computación en nube para su procesamiento, Edge AI permite que el análisis de datos y la toma de decisiones se produzcan más cerca de la fuente donde se generan los datos. Este enfoque aprovecha los avances en hardware, como los chips especializados en IA, y los eficientes modelos de aprendizaje automático (ML ) para llevar la inteligencia al borde de la red. Permite a los dispositivos realizar localmente tareas como el reconocimiento de imágenes, el procesamiento del lenguaje natural (PLN) y la detección de anomalías.
El proceso suele implicar el entrenamiento de un modelo de IA, a menudo utilizando potentes recursos en la nube o servidores locales. Una vez entrenado, el modelo se somete a técnicas de optimización como la cuantización o la poda de modelos para reducir su tamaño y sus requisitos computacionales. Esta optimización es crucial para ejecutar los modelos de forma eficiente en dispositivos periféricos con recursos limitados, que a menudo tienen una potencia de procesamiento(CPU/GPU), una memoria y una autonomía limitadas. A continuación, el modelo optimizado se despliega en el dispositivo periférico utilizando marcos como TensorFlow Lite, PyTorch Mobile, ONNX Runtime o SDK especializados como OpenVINO de Intel. El dispositivo puede entonces realizar inferencia en tiempo real utilizando sus sensores locales (por ejemplo, cámaras, micrófonos) para procesar datos y generar ideas o acciones sin necesidad de conectividad constante a Internet. La gestión de estos despliegues puede racionalizarse utilizando plataformas como Ultralytics HUB.
La principal diferencia radica en dónde se produce el cálculo de la IA. La IA en la nube procesa los datos en servidores centralizados, ofreciendo vastos recursos computacionales adecuados para modelos complejos y datos de entrenamiento a gran escala. Sin embargo, introduce latencia debido a la transmisión de datos y requiere una conectividad fiable a Internet. Por el contrario, la IA Edge procesa los datos localmente en el dispositivo. Esto minimiza la latencia, mejora la privacidad de los datos, ya que la información sensible no necesita salir del dispositivo, y permite el funcionamiento en entornos sin conexión o con poco ancho de banda. La contrapartida es que los dispositivos periféricos tienen recursos limitados, lo que restringe la complejidad de los modelos desplegables. Más información sobre la IA en los bordes frente a la IA en la nube.
La IA de borde es una aplicación específica dentro del campo más amplio de la computación de borde. Edge computing hace referencia al paradigma general de desplazar las tareas informáticas de los centros de datos centralizados al "borde" de la red, más cerca de los usuarios y las fuentes de datos. Edge AI aplica específicamente este concepto a las cargas de trabajo de IA y ML, permitiendo el procesamiento inteligente directamente en los dispositivos periféricos. Mientras que la computación de borde puede implicar varios tipos de procesamiento, Edge AI se centra en el despliegue y la ejecución de modelos de IA a nivel local. Puede obtener más información sobre edge computing aquí.
La IA Edge está transformando numerosos sectores, especialmente el de la visión por ordenador (CV). La creciente demanda se refleja en el aumento del tamaño del mercado de Edge AI.
A pesar de sus ventajas, la IA Edge se enfrenta a retos como los limitados recursos computacionales(impacto de la potencia de cálculo) de los dispositivos Edge, la necesidad de modelos altamente optimizados(como la eficiencia de YOLOv9), la gestión del despliegue y las actualizaciones del modelo en numerosos dispositivos distribuidos (a menudo utilizando herramientas como Docker) y la garantía del rendimiento del modelo en condiciones variables del mundo real. Hardware especializado como Google Edge TPU y sensores como el Sony IMX500 ayudan a abordar algunas de estas limitaciones de hardware. Frameworks como NVIDIA TensorRT también ayudan a la optimización.
La IA en los bordes representa un cambio significativo en la forma en que se ofrecen las capacidades de IA, trasladando la inteligencia de las nubes centralizadas a los dispositivos locales. Esto permite una nueva generación de aplicaciones de IA sensibles, privadas y fiables que pueden operar eficazmente en el borde de la red, afectando a todo, desde la electrónica de consumo a los sistemas industriales críticos.