Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Modelos lingüísticos pequeños (SLM)

Descubre cómo los modelos de lenguaje pequeños (SLM) permiten implementar una IA eficiente, privada y de bajo coste en dispositivos periféricos. Aprende a combinar los SLM con Ultralytics para la IA en el borde.

Los modelos lingüísticos pequeños (SLM) son modelos de inteligencia artificial optimizados, diseñados para comprender y generar lenguaje humano de manera eficiente. A diferencia de sus homólogos de mayor tamaño, los SLM suelen tener entre unos pocos millones y unos 15 000 millones de parámetros, lo que les permite ejecutarse localmente en dispositivos periféricos, en lugar de requerir una enorme infraestructura de computación en la nube. Al funcionar localmente, estos modelos ofrecen un procesamiento más rápido, una mayor privacidad para el usuario y unos costes de implementación considerablemente reducidos.

Diferenciación de términos clave

Para comprender mejor el panorama de la IA, resulta útil distinguir los modelos de lenguaje escalar (SLM) de otras tecnologías relacionadas:

  • SLM frente a modelos de lenguaje a gran escala (LLM): Mientras que los LLM contienen cientos de miles de millones de parámetros y requieren una gran cantidad de recursos de servidor, los SLM están muy optimizados. Esto les permite funcionar con una latencia de inferencia mínima, lo que los hace ideales para aplicaciones especializadas y específicas de un ámbito concreto en las que no se requiere una escala masiva.
  • Modelos de lenguaje único (SLM) frente a modelos de visión y lenguaje (VLM): Los SLM se centran principalmente en tareas de procesamiento del lenguaje natural. Por el contrario, los VLM pueden interpretar tanto texto como imágenes de forma nativa. Sin embargo, muchos desarrolladores combinan ahora los SLM con modelos de visión rápidos para crear sistemas multimodales ligeros.

Aplicaciones en el mundo real

Los modelos de lenguaje pequeños están transformando rápidamente los sectores al incorporar inteligencia avanzada directamente en los dispositivos electrónicos de consumo y las redes empresariales.

Implementación de los SLM en los flujos de trabajo modernos

Los recientes avances de 2024 y 2025 han demostrado que los datos de entrenamiento de alta calidad pueden ofrecer un rendimiento que rivaliza con los modelos masivos de años anteriores. Innovaciones como Gemma,Google, y Llama 3 8B, de Meta, ponen de manifiesto hasta qué punto han aumentado las capacidades de las arquitecturas más pequeñas.

A la hora de crear soluciones integrales de IA, los desarrolladores suelen utilizar Python para integrar el razonamiento lingüístico de un SLM con la precisión visual de las herramientas disponibles en la Ultralytics . Por ejemplo, un SLM integrado en el dispositivo podría procesar un comando de voz para iniciar una tarea de visión artificial. El siguiente fragmento de código conciso muestra cómo cargar un modelo ligero como Ultralytics para el seguimiento de objetos , una operación muy adecuada para el mismo hardware periférico que ejecuta un SLM:

from ultralytics import YOLO

# Load the highly efficient YOLO26 nano model, suitable for edge devices
model = YOLO("yolo26n.pt")

# Run real-time object tracking on a local video stream
results = model.track(source="video.mp4", show=True, tracker="botsort.yaml")

Al dar prioridad a la ejecución local, los ingenieros reducen considerablemente los requisitos de ancho de banda y los costes operativos. A medida que el sector sigue avanzando en las tecnologías de IA periférica, la potente combinación de una visión artificial optimizada y modelos lingüísticos pequeños y eficientes impulsará la próxima generación de sistemas inteligentes y autónomos.

¡Construyamos juntos el futuro de la IA!

Comience su viaje con el futuro del aprendizaje automático