Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Edge AI

Explore Edge AI y aprenda a implementar Ultralytics en hardware local para obtener inferencias en tiempo real, reducir la latencia y mejorar la privacidad de los datos en el borde.

La IA periférica se refiere al despliegue de algoritmos y modelos de inteligencia artificial (IA) directamente en dispositivos de hardware locales, como teléfonos inteligentes, sensores IoT, drones y vehículos conectados, en lugar de depender de centros de computación en la nube centralizados . Este enfoque descentralizado permite que los datos se procesen en el origen de su creación, lo que reduce significativamente la latencia que implica el envío de información a servidores remotos. Al ejecutar tareas de aprendizaje automático (ML) a nivel local, los dispositivos pueden tomar decisiones instantáneas, funcionar de manera confiable sin conexión a Internet y mejorar la privacidad de los datos al mantener la información confidencial en el propio dispositivo.

¿Cómo funciona la IA en el borde?

El núcleo de la IA periférica consiste en ejecutar un motor de inferencia en un sistema integrado. Dado que los dispositivos periféricos suelen tener una duración de batería y una potencia computacional limitadas en comparación con los servidores en la nube, los modelos de IA deben ser muy eficientes. Los desarrolladores suelen emplear técnicas como la cuantificación de modelos o la poda de modelos para comprimir grandes redes neuronales sin sacrificar una precisión significativa .

A menudo se utilizan aceleradores de hardware especializados para gestionar estas cargas de trabajo de manera eficiente. Algunos ejemplos son la plataforma NVIDIA para robótica y Google Edge TPU para inferencia de bajo consumo. Los marcos de software también desempeñan un papel fundamental; herramientas como TensorRT y TFLite optimizan los modelos específicamente para estos entornos limitados, lo que garantiza una rápida inferencia en tiempo real.

IA en el borde (Edge AI) vs. Computación en el borde (Edge Computing)

Aunque los términos se utilizan a menudo de forma intercambiable, es útil distinguir entre ellos:

  • Edge Computing: Describe la infraestructura física más amplia y la topología de red en la que el procesamiento de datos se produce cerca de la fuente de datos. Es el «dónde» de la ecuación.
  • IA periférica: se refiere específicamente a las aplicaciones inteligentes que se ejecutan en esa infraestructura. Es el «qué». Por ejemplo, una cámara de seguridad actúa como un dispositivo de computación periférica, pero cuando utiliza la visión artificial (CV) para reconocer a una persona específica , está realizando IA periférica.

Aplicaciones en el mundo real

La IA periférica está transformando las industrias al permitir la toma de decisiones autónoma en situaciones críticas:

  • Vehículos autónomos: los coches autónomos generan terabytes de datos a diario. No pueden depender de la nube para identificar peatones u obstáculos debido a la latencia de la señal. En su lugar, utilizan Edge AI a bordo para la detección instantánea de objetos y garantizar así la seguridad de los pasajeros.
  • Fabricación inteligente: En el IoT industrial (IIoT), los sensores de las fábricas utilizan la IA periférica para el mantenimiento predictivo. Mediante el análisis local de los datos de vibración y temperatura , el sistema puede detect y predecir fallos en los equipos en tiempo real, lo que evita costosos tiempos de inactividad.
  • Atención sanitaria: los dispositivos médicos portátiles equipados con VisionAI pueden analizar imágenes médicas o las constantes vitales de los pacientes directamente en el punto de atención, lo que proporciona un apoyo diagnóstico inmediato en zonas remotas con mala conectividad.

Despliegue de modelos en la periferia

La implementación de un modelo en el borde suele implicar el entrenamiento de un modelo en un entorno de alta computación y su posterior exportación a un formato compatible con los dispositivos periféricos, como ONNX o OpenVINO. La Ultralytics simplifica este flujo de trabajo, permitiendo a los usuarios entrenar y exportar automáticamente modelos para diversos objetivos periféricos.

El siguiente ejemplo muestra cómo exportar un modelo YOLO26 ligero —diseñado específicamente para ser eficiente— a un formato adecuado para su implementación en dispositivos móviles y periféricos.

from ultralytics import YOLO

# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")

# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")

Las implementaciones avanzadas en el borde suelen utilizar tecnologías de contenedorización como Docker para empaquetar aplicaciones, lo que garantiza que se ejecuten de forma coherente en diferentes arquitecturas de dispositivos, desde unidades Raspberry Pi hasta puertas de enlace industriales.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora