Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Aprenda los 5 consejos prácticos más importantes para implementar Ultralytics de manera eficiente en el borde y la nube, desde elegir el flujo de trabajo y el formato de exportación adecuados hasta la cuantificación.
El mes pasado, Ultralytics lanzó Ultralytics Ultralytics , estableciendo un nuevo estándar para Vision AI, una rama de la inteligencia artificial que permite a las máquinas interpretar y comprender la información visual de imágenes y vídeos. En lugar de limitarse a capturar imágenes, los modelos de visión artificial comoYOLO Ultralytics YOLO admiten tareas de visión como la detección de objetos, la segmentación de instancias, la estimación de poses y la clasificación de imágenes.
Diseñado para funcionar en entornos donde se utiliza la visión artificial, como dispositivos, cámaras, robots y sistemas de producción, YOLO26 es un modelo de última generación que ofrece una inferencia más rápida de la unidad central de procesamiento (CPU), una implementación simplificada y un rendimiento eficiente de extremo a extremo en entornos reales. Los modelos YOLO26 también se han diseñado para facilitar el paso de las soluciones de visión artificial de la fase de experimentación a la de producción.
Fig. 1. El modelo YOLO26 nano ofrece CPU hasta un 43 % más rápida que YOLO11. (Fuente)
La implementación de modelos suele implicar diversas consideraciones, como seleccionar el hardware adecuado, elegir un formato de exportación apropiado, optimizar el rendimiento y validar los resultados en condiciones reales. Seguir estos pasos durante la implementación de YOLO26 es sencillo gracias al Python Ultralytics , que agiliza el entrenamiento, la inferencia y la exportación de modelos en múltiples destinos de implementación.
Sin embargo, incluso con flujos de trabajo simplificados, es fundamental tomar las decisiones correctas en materia de implementación. En este artículo, repasaremos cinco consejos prácticos que le ayudarán a implementar YOLO26 de manera eficiente en entornos periféricos y en la nube, garantizando un rendimiento fiable y escalable de la IA visual en la producción. ¡Empecemos!
¿Qué es la implementación de modelos en la visión artificial?
Antes de profundizar en las estrategias de implementación de YOLO26, demos un paso atrás y comprendamos qué significa la implementación de modelos en la visión artificial.
La implementación de modelos es el proceso de trasladar un modelo de aprendizaje profundo entrenado desde un entorno de desarrollo a una aplicación del mundo real, donde puede procesar nuevas imágenes o secuencias de vídeo y generar predicciones de forma continua. En lugar de realizar experimentos con conjuntos de datos estáticos, el modelo pasa a formar parte de un sistema en tiempo real.
En visión artificial, esto suele implicar integrar el modelo con cámaras, dispositivos de IA periféricos, API o infraestructura en la nube. Debe funcionar dentro de las limitaciones del hardware, cumplir los requisitos de latencia y mantener un rendimiento constante en condiciones cambiantes del mundo real.
Comprender este cambio de la experimentación a la producción es esencial, ya que las decisiones de implementación influyen directamente en el rendimiento de un modelo fuera del laboratorio o del entorno experimental.
Comprender los flujos de trabajo de implementación de Ultralytics
A continuación, veamos en qué consiste realmente el flujo de trabajo de implementación de YOLO26. En pocas palabras, es la secuencia de pasos que lleva una imagen desde su captura hasta su análisis y conversión en una predicción.
En una configuración típica, una cámara captura una imagen o un fotograma de vídeo. A continuación, esos datos se preprocesan, por ejemplo, cambiando su tamaño o formateándolos correctamente, antes de pasarlos a Ultralytics para su inferencia.
El modelo analiza los datos de entrada y genera resultados como cuadros delimitadores, máscaras de segmentación o puntos clave. Estos resultados se pueden utilizar para activar acciones, como enviar alertas, actualizar un panel de control o guiar un sistema robótico.
El lugar donde se ejecuta este flujo de trabajo depende de su estrategia de implementación. Por ejemplo, en una implementación periférica, la inferencia se realiza directamente en el dispositivo o cerca de la cámara, lo que ayuda a reducir la latencia y mejorar la privacidad de los datos.
Por su parte, en una implementación en la nube, las imágenes o los fotogramas de vídeo se envían a servidores remotos para su procesamiento, lo que permite una mayor escalabilidad y una gestión centralizada. Algunos sistemas utilizan un enfoque híbrido, realizando un procesamiento ligero en el borde y las cargas de trabajo más pesadas en la nube.
Exploración de las variantes del modelo YOLO26
Para tomar decisiones informadas sobre la implementación, también es importante comprender que existen diferentes variantes del modelo YOLO26 entre las que elegir.
YOLO Ultralytics están disponibles en varios tamaños, lo que facilita la elección de una versión que se adapte a sus necesidades de hardware y rendimiento. YOLO26 viene en cinco variantes: Nano (n), Pequeño (s), Mediano (m), Grande (l) y Extragrande (x).
Los modelos más pequeños, como YOLO26n, están optimizados para ofrecer eficiencia y son ideales para dispositivos periféricos, dispositivos del Internet de las cosas (IoT), sistemas integrados y sistemas alimentados por una CPU, donde es importante una baja latencia y un menor consumo de energía. Ofrecen un gran rendimiento y mantienen un uso mínimo de recursos.
Los modelos más grandes, como YOLO26l y YOLO26x, están diseñados para ofrecer una mayor precisión y manejar escenas más complejas. Estas variantes suelen funcionar mejor en sistemas equipados con unidades de procesamiento gráfico (GPU) o en entornos en la nube, donde se dispone de más recursos informáticos.
La selección del tamaño adecuado del modelo depende de sus objetivos de implementación. Si la velocidad y la eficiencia en hardware limitado son sus principales prioridades, una variante más pequeña puede ser ideal. Si su aplicación exige la máxima precisión y tiene acceso a hardware más potente, un modelo más grande puede ser la mejor opción.
Consejos para implementar YOLO26 de manera eficiente
Ahora que comprendemos mejor las variantes del modelo YOLO26 y los flujos de trabajo de implementación, veamos algunos consejos prácticos para implementar YOLO26 de manera eficiente en entornos periféricos y en la nube.
Consejo 1: Considere las opciones de implementación de su modelo.
Una de las primeras decisiones que deberá tomar al implementar Ultralytics es dónde se ejecutará el modelo. Su entorno de implementación afecta directamente al rendimiento, la latencia, la privacidad y la escalabilidad.
Comience por evaluar su flujo de trabajo. ¿Su aplicación requiere una baja latencia, lo que significa que las predicciones deben generarse casi instantáneamente después de capturar una imagen?
Por ejemplo, en robótica o sistemas de seguridad, incluso pequeños retrasos pueden afectar al rendimiento. En estos casos, una implementación periférica suele ser la mejor opción. Ejecutar la inferencia directamente en un dispositivo o cerca de la cámara reduce el tiempo que se tarda en procesar los datos y evita enviar imágenes a través de Internet, lo que también puede mejorar la privacidad.
Por otro lado, la implementación en la nube proporciona una mayor escalabilidad y potencia de cálculo. Los servidores en la nube pueden procesar grandes volúmenes de imágenes, gestionar múltiples flujos de vídeo y admitir un mayor rendimiento.
Por ejemplo, en agricultura, un agricultor podría recopilar miles de imágenes de hojas y analizarlas por lotes para determinar si los cultivos muestran signos de enfermedad. En este tipo de escenario, es posible que no se requiera un rendimiento inmediato en tiempo real, lo que convierte al procesamiento en la nube en una opción práctica y escalable.
Fig. 2. Ejemplo del uso de YOLO26 para analizar imágenes de hojas.
Sin embargo, el envío de datos a servidores remotos introduce una latencia en la red, que es el retraso causado por la transmisión de imágenes a través de Internet y la recepción de predicciones a cambio. Para aplicaciones que no son sensibles al tiempo, esta compensación puede ser aceptable.
También hay opciones entre el borde puro y la nube pura. Algunas empresas utilizan infraestructura localizada cerca de donde se generan los datos. Otras crean canalizaciones híbridas, realizando un filtrado ligero en el borde y enviando los datos seleccionados a la nube para un análisis más profundo.
La elección de la opción de implementación adecuada depende de los requisitos de su aplicación. Al definir claramente sus necesidades en cuanto a velocidad, privacidad y escalabilidad, podrá seleccionar una estrategia que garantice el rendimiento fiable de YOLO26 en condiciones reales.
Consejo 2: Elige el formato de exportación que se adapte a tu hardware.
Una vez que haya decidido dónde se ejecutará su modelo, el siguiente paso es elegir el formato de exportación adecuado. Exportar un modelo significa convertirlo del formato utilizado durante el entrenamiento a un formato optimizado para su implementación.
Los modelos YOLO26 se crean y entrenan de forma nativa en PyTorch, pero los entornos de producción suelen depender de tiempos de ejecución especializados que se adaptan mejor a un hardware específico. Estos tiempos de ejecución están diseñados para mejorar la velocidad de inferencia, reducir el uso de memoria y garantizar la compatibilidad con el dispositivo de destino.
Convertir YOLO26 al formato adecuado permite que se ejecute de manera eficiente fuera del entorno de entrenamiento. ElPython Ultralytics Python facilita este proceso. Es compatible con una amplia gama de integraciones para crear e implementar proyectos de visión artificial.
Si desea explorar estas integraciones con más detalle, puede consultar la Ultralytics oficial Ultralytics . Incluye tutoriales paso a paso, orientación específica sobre el hardware y ejemplos prácticos que le ayudarán a pasar del desarrollo a la producción con confianza.
Fig. 3. Ultralytics diferentes integraciones (Fuente)
En concreto, elPython Ultralytics Python permite exportar Ultralytics a múltiples formatos adaptados a diferentes plataformas de hardware. Por ejemplo, el formato ONNX permite la compatibilidad entre plataformas, el formato TensorRT está optimizado para NVIDIA y dispositivos periféricos NVIDIA , y el formato OpenVINO está diseñado para Intel .
Algunos dispositivos admiten más de un formato de exportación, pero el rendimiento puede variar en función del que elijas. En lugar de seleccionar un formato por defecto, pregúntate: ¿qué opción es la más eficiente para tu dispositivo?
Un formato puede ofrecer una inferencia más rápida, mientras que otro puede ofrecer una mayor eficiencia de memoria o una integración más sencilla en su canalización existente. Por eso es importante adaptar el formato de exportación a su hardware y entorno de implementación específicos.
Dedicar tiempo a probar diferentes opciones de exportación en el dispositivo de destino puede marcar una diferencia notable en el rendimiento real. Un formato de exportación adecuado ayuda a garantizar que YOLO26 funcione de manera eficiente, fiable y a la velocidad que requiere su aplicación.
Consejo 3: Pregunte si su modelo necesita cuantificación.
Después de seleccionar un formato de exportación, también es buena idea determinar si tu modelo debe cuantificarse.
La cuantificación de modelos reduce la precisión numérica de los pesos y cálculos de un modelo, normalmente convirtiéndolos de 32 bits en coma flotante a formatos de menor precisión, como 16 bits u 8 bits. Esto ayuda a reducir el tamaño del modelo, disminuir el uso de memoria y mejorar la velocidad de inferencia, especialmente en dispositivos periféricos o sistemas alimentados por una CPU.
Dependiendo de su hardware, formato de exportación y dependencias de tiempo de ejecución, la cuantificación puede mejorar notablemente el rendimiento. Algunos entornos de ejecución están optimizados para modelos de menor precisión, lo que les permite funcionar de forma más rápida y eficiente.
Sin embargo, la cuantificación puede afectar ligeramente a la precisión si no se aplica con cuidado. Al realizar la cuantificación posterior al entrenamiento, asegúrese de pasar las imágenes de validación. Estas imágenes se utilizan durante la calibración para ayudar al modelo a ajustarse a una precisión menor y mantener predicciones estables.
Consejo 4: Ten en cuenta la deriva de datos
Incluso el modelo mejor entrenado puede perder rendimiento con el tiempo debido a la deriva de datos. La deriva de datos se produce cuando los datos que ve tu modelo en producción son diferentes de los datos con los que se entrenó.
En otras palabras, el mundo real cambia, pero tu modelo no. Como resultado, la precisión puede disminuir lentamente.
Por ejemplo, puede entrenar su modelo YOLO26 utilizando imágenes capturadas durante el día. Si ese mismo modelo se utiliza posteriormente por la noche, en condiciones de iluminación diferentes, el rendimiento puede disminuir. El mismo problema puede producirse con cambios en los ángulos de la cámara, las condiciones meteorológicas, los fondos o la apariencia de los objetos.
La deriva de datos es habitual en los sistemas de IA de visión del mundo real. Los entornos rara vez son estáticos, y los pequeños cambios pueden afectar a la precisión de la detección. Para reducir el impacto de la deriva, puede asegurarse de que su conjunto de datos de entrenamiento refleje las condiciones del mundo real lo más fielmente posible.
Incluya imágenes capturadas en diferentes momentos del día, bajo diferentes condiciones de iluminación y en diversos entornos. Después de la implementación, puede continuar supervisando el rendimiento y actualizando o ajustando el modelo cuando sea necesario.
Consejo 5: Realice pruebas comparativas en condiciones reales.
Antes de implementar completamente su modelo, puede compararlo con otras soluciones en condiciones reales.
Fig. 4. Comparación de YOLO26 con otros modelos (Fuente)
Es habitual probar el rendimiento en entornos controlados utilizando imágenes de muestra o pequeños conjuntos de datos. Sin embargo, los sistemas del mundo real suelen comportarse de forma diferente. Las limitaciones del hardware, los retrasos en la red, las múltiples transmisiones de vídeo y la entrada continua pueden afectar al rendimiento.
El benchmarking consiste en medir el rendimiento de su modelo en el dispositivo y la configuración reales en los que se ejecutará. Esto incluye comprobar la velocidad de inferencia, la latencia general, el uso de la memoria y la estabilidad del sistema. Es importante probar no solo el modelo en sí, sino todo el proceso, incluidos los pasos de preprocesamiento y posprocesamiento.
Un modelo puede funcionar bien en una prueba con una sola imagen, pero tener dificultades al procesar vídeo en directo de forma continua. Del mismo modo, el rendimiento en un potente equipo de desarrollo puede no reflejar el comportamiento del modelo en un dispositivo periférico de baja potencia.
Mediante la evaluación comparativa en condiciones realistas, puede identificar cuellos de botella de forma temprana y realizar ajustes antes de la puesta en marcha. Las pruebas en el mismo entorno en el que operará YOLO26 ayudan a garantizar un rendimiento fiable, estable y coherente en la producción.
Otras consideraciones clave para la implementación del modelo
A continuación se indican algunos factores adicionales que hay que tener en cuenta al implementar YOLO26:
Supervisión y registro: Configure herramientas de supervisión para track como la latencia, la precisión y el estado del sistema tras la implementación.
Seguridad y privacidad: Implemente medidas de seguridad para proteger los datos visuales confidenciales, especialmente cuando utilice infraestructura en la nube o remota.
Optimización de los cuellos de botella del proceso: evalúe todo el proceso, incluidos módulos como el preprocesamiento, la inferencia, el posprocesamiento y la transferencia de datos, ya que pueden producirse retrasos fuera del propio modelo.
Planificación de la escalabilidad: planifique con antelación el crecimiento asegurándose de que su sistema pueda gestionar el aumento del tráfico, las cámaras adicionales o las cargas de trabajo ampliadas.
Conclusiones clave
Para implementar YOLO26 de manera eficiente, primero hay que comprender dónde se ejecutará el modelo y cuáles son las necesidades reales de la aplicación. Al elegir el enfoque de implementación adecuado, adaptar el formato de exportación al hardware y probar el rendimiento en condiciones reales, se pueden crear sistemas de IA visual fiables y con gran capacidad de respuesta. Con la configuración adecuada, Ultralytics facilita la incorporación de una visión artificial rápida y lista para la producción al borde y a la nube.