Descubre cómo los modelos de lenguaje pequeños (SLM) permiten implementar una IA eficiente, privada y de bajo coste en dispositivos periféricos. Aprende a combinar los SLM con Ultralytics para la IA en el borde.
Los modelos lingüísticos pequeños (SLM) son modelos de inteligencia artificial optimizados, diseñados para comprender y generar lenguaje humano de manera eficiente. A diferencia de sus homólogos de mayor tamaño, los SLM suelen tener entre unos pocos millones y unos 15 000 millones de parámetros, lo que les permite ejecutarse localmente en dispositivos periféricos, en lugar de requerir una enorme infraestructura de computación en la nube. Al funcionar localmente, estos modelos ofrecen un procesamiento más rápido, una mayor privacidad para el usuario y unos costes de implementación considerablemente reducidos.
Para comprender mejor el panorama de la IA, resulta útil distinguir los modelos de lenguaje escalar (SLM) de otras tecnologías relacionadas:
Los modelos de lenguaje pequeños están transformando rápidamente los sectores al incorporar inteligencia avanzada directamente en los dispositivos electrónicos de consumo y las redes empresariales.
Los recientes avances de 2024 y 2025 han demostrado que los datos de entrenamiento de alta calidad pueden ofrecer un rendimiento que rivaliza con los modelos masivos de años anteriores. Innovaciones como Gemma,Google, y Llama 3 8B, de Meta, ponen de manifiesto hasta qué punto han aumentado las capacidades de las arquitecturas más pequeñas.
A la hora de crear soluciones integrales de IA, los desarrolladores suelen utilizar Python para integrar el razonamiento lingüístico de un SLM con la precisión visual de las herramientas disponibles en la Ultralytics . Por ejemplo, un SLM integrado en el dispositivo podría procesar un comando de voz para iniciar una tarea de visión artificial. El siguiente fragmento de código conciso muestra cómo cargar un modelo ligero como Ultralytics para el seguimiento de objetos , una operación muy adecuada para el mismo hardware periférico que ejecuta un SLM:
from ultralytics import YOLO
# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")
# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")
Al dar prioridad a la ejecución local, los ingenieros reducen considerablemente los requisitos de ancho de banda y los costes operativos. A medida que el sector sigue avanzando en las tecnologías de IA periférica, la potente combinación de una visión artificial optimizada y modelos lingüísticos pequeños y eficientes impulsará la próxima generación de sistemas inteligentes y autónomos.
Comience su viaje con el futuro del aprendizaje automático