Descubra el poder del edge computing: aumente la eficiencia, reduzca la latencia y habilite aplicaciones de IA en tiempo real con el procesamiento de datos local.
La computación periférica es una arquitectura de tecnología de la información descentralizada que procesa los datos cerca de su fuente de generación, en lugar de depender de un entorno centralizado de computación en la nube. Al manejar los datos localmente en dispositivos o servidores locales, esta arquitectura minimiza drásticamente la distancia que deben recorrer los datos. Esta proximidad da como resultado una latencia y un uso del ancho de banda significativamente menores, lo que la hace ideal para aplicaciones que requieren una respuesta inmediata. En el contexto de la inteligencia artificial, la computación periférica proporciona la infraestructura física necesaria para implementar la IA periférica, lo que permite que sofisticados modelos de aprendizaje automático se ejecuten directamente en cámaras inteligentes, drones y sensores industriales.
Los flujos de trabajo tradicionales de IA suelen implicar el envío de datos sin procesar, como transmisiones de vídeo de alta resolución, a un centro de datos remoto para su procesamiento. Aunque este enfoque es eficaz para entrenar modelos de gran tamaño, introduce retrasos que pueden ser críticos en escenarios en tiempo real. La computación en el borde traslada el motor de inferencia al propio dispositivo. Este cambio ofrece varias ventajas clave:
La computación periférica está transformando las industrias al permitir la inteligencia en entornos físicos.
Aunque los términos se utilizan a menudo de forma intercambiable, existe una diferencia clara. El Edge Computing se refiere a la topología física y la infraestructura —el hardware, las pasarelas y los servidores locales— que permite el procesamiento descentralizado . La IA en el borde es la aplicación de software de algoritmos de inteligencia artificial que se ejecuta en esa infraestructura. Se puede tener computación periférica sin IA (por ejemplo, un simple registrador de datos local), pero la IA periférica requiere una infraestructura de computación periférica para funcionar.
La implementación de redes neuronales modernas en dispositivos periféricos requiere optimización, ya que estos dispositivos suelen tener menos potencia de cálculo que los servidores en la nube. Los desarrolladores suelen utilizar la cuantificación de modelos o exportar modelos a formatos eficientes como ONNX o TensorRT para maximizar el rendimiento.
El siguiente Python muestra cómo exportar un modelo ligero YOLO26 al ONNX , preparándolo para su implementación en hardware periférico como una Raspberry Pi:
from ultralytics import YOLO
# Load the lightweight YOLO26 nano model, optimized for edge devices
model = YOLO("yolo26n.pt")
# Export the model to ONNX format with dynamic input size
# This allows the edge device to run inference efficiently
model.export(format="onnx", dynamic=True)
La gestión del ciclo de vida de estos modelos, desde el entrenamiento hasta su implementación en flotas de dispositivos periféricos, puede resultar compleja. Ultralytics simplifica este proceso al proporcionar herramientas para entrenar, optimizar e implementar modelos directamente en los puntos finales periféricos.