Descubra cómo las técnicas de optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos y la cuantificación de modelos, pueden ayudar a que los modelos de visión artificial se ejecuten de manera más eficiente.

Descubra cómo las técnicas de optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos y la cuantificación de modelos, pueden ayudar a que los modelos de visión artificial se ejecuten de manera más eficiente.

La optimización de modelos es un proceso que tiene como objetivo mejorar la eficiencia y el rendimiento de los modelos de aprendizaje automático. Al refinar la estructura y la función de un modelo, la optimización hace posible que los modelos ofrezcan mejores resultados con un mínimo de recursos computacionales y un menor tiempo de entrenamiento y evaluación.
Este proceso es especialmente importante en campos como la visión artificial, donde los modelos a menudo requieren recursos sustanciales para analizar imágenes complejas. En entornos con recursos limitados, como dispositivos móviles o sistemas edge, los modelos optimizados pueden funcionar bien con recursos limitados sin dejar de ser precisos.
Se utilizan comúnmente varias técnicas para lograr la optimización del modelo, incluyendo el ajuste de hiperparámetros, el pruning del modelo, la cuantización del modelo y la precisión mixta. En este artículo, exploraremos estas técnicas y los beneficios que aportan a las aplicaciones de visión artificial. ¡Empecemos!
Los modelos de visión artificial suelen tener capas profundas y estructuras complejas que son excelentes para reconocer patrones intrincados en las imágenes, pero también pueden ser bastante exigentes en términos de potencia de procesamiento. Cuando estos modelos se implementan en dispositivos con hardware limitado, como teléfonos móviles o dispositivos de borde, pueden enfrentar ciertos desafíos o limitaciones.
La potencia de procesamiento, la memoria y la energía limitadas en estos dispositivos pueden provocar caídas notables en el rendimiento, ya que los modelos luchan por mantenerse al día. Las técnicas de optimización de modelos son clave para abordar estos problemas. Ayudan a optimizar el modelo, reducir sus necesidades computacionales y garantizar que aún pueda funcionar eficazmente, incluso con recursos limitados. La optimización del modelo se puede realizar simplificando la arquitectura del modelo, reduciendo la precisión de los cálculos o eliminando componentes innecesarios para que el modelo sea más ligero y rápido.

Estas son algunas de las técnicas más comunes de optimización de modelos, que exploraremos con más detalle en las siguientes secciones:
Puede ayudar a un modelo a aprender y rendir mejor ajustando sus hiperparámetros: configuraciones que dan forma a cómo el modelo aprende de los datos. El ajuste de hiperparámetros es una técnica para optimizar estas configuraciones, mejorando la eficiencia y la precisión del modelo. A diferencia de los parámetros que el modelo aprende durante el entrenamiento, los hiperparámetros son valores preestablecidos que guían el proceso de entrenamiento.
Repasemos algunos ejemplos de hiperparámetros que se pueden ajustar:
El ajuste de hiperparámetros generalmente comienza con la definición de un rango de valores posibles para cada hiperparámetro. Luego, un algoritmo de búsqueda explora diferentes combinaciones dentro de estos rangos para identificar la configuración que produce el mejor rendimiento.
Los métodos comunes de ajuste incluyen la búsqueda en cuadrícula, la búsqueda aleatoria y la optimización bayesiana. La búsqueda en cuadrícula prueba cada combinación posible de valores dentro de los rangos especificados. La búsqueda aleatoria selecciona combinaciones al azar, a menudo encontrando configuraciones efectivas más rápidamente. La optimización bayesiana utiliza un modelo probabilístico para predecir valores de hiperparámetros prometedores basados en resultados anteriores. Este enfoque normalmente reduce el número de pruebas necesarias.
En última instancia, para cada combinación de hiperparámetros, se evalúa el rendimiento del modelo. El proceso se repite hasta que se alcanzan los resultados deseados.
Mientras trabaja en el ajuste de hiperparámetros, puede preguntarse cuál es la diferencia entre los hiperparámetros y los parámetros del modelo.
Los hiperparámetros son valores establecidos antes del entrenamiento que controlan cómo aprende el modelo, como la tasa de aprendizaje o el tamaño del lote. Estos ajustes se fijan durante el entrenamiento e influyen directamente en el proceso de aprendizaje. Los parámetros del modelo, por otro lado, son aprendidos por el propio modelo durante el entrenamiento. Estos incluyen pesos y sesgos, que se ajustan a medida que el modelo se entrena y, en última instancia, guían sus predicciones. En esencia, los hiperparámetros dan forma al proceso de aprendizaje, mientras que los parámetros del modelo son los resultados de ese proceso de aprendizaje.

La poda de modelos es una técnica de reducción de tamaño que elimina pesos y parámetros innecesarios de un modelo, haciéndolo más eficiente. En la visión artificial, especialmente con redes neuronales profundas, una gran cantidad de parámetros, como pesos y activaciones (salidas intermedias que ayudan a calcular la salida final), puede aumentar tanto la complejidad como las demandas computacionales. La poda ayuda a optimizar el modelo identificando y eliminando los parámetros que contribuyen mínimamente al rendimiento, lo que resulta en un modelo más ligero y eficiente.

Después de entrenar el modelo, técnicas como la poda basada en la magnitud o el análisis de sensibilidad pueden evaluar la importancia de cada parámetro. Los parámetros de baja importancia se podan, utilizando una de las tres técnicas principales: poda de peso, poda de neuronas o poda estructurada.
La poda de pesos elimina las conexiones individuales con un impacto mínimo en la salida. La poda de neuronas elimina neuronas enteras cuyas salidas contribuyen poco a la función del modelo. La poda estructurada elimina secciones más grandes, como filtros convolucionales o neuronas en capas totalmente conectadas, optimizando la eficiencia del modelo. Una vez completada la poda, el modelo se vuelve a entrenar para ajustar los parámetros restantes, asegurando que conserva una alta precisión en una forma reducida.
La cuantización de modelos reduce el número de bits utilizados para representar los pesos y las activaciones de un modelo. Normalmente, convierte los valores de coma flotante de 32 bits de alta precisión a una precisión más baja, como enteros de 16 bits u 8 bits. Al reducir la precisión de los bits, la cuantización disminuye significativamente el tamaño del modelo, la huella de memoria y el coste computacional.
En la visión artificial, los floats de 32 bits son estándar, pero la conversión a 16 bits u 8 bits puede mejorar la eficiencia. Hay dos tipos principales de cuantificación: la cuantificación de pesos y la cuantificación de activaciones. La cuantificación de pesos reduce la precisión de los pesos del modelo, equilibrando la reducción de tamaño con la precisión. La cuantificación de la activación reduce la precisión de las activaciones, disminuyendo aún más la memoria y las demandas computacionales.

La precisión mixta es una técnica que utiliza diferentes precisiones numéricas para varias partes de una red neuronal. Al combinar valores de mayor precisión, como flotantes de 32 bits, con valores de menor precisión, como flotantes de 16 bits u 8 bits, la precisión mixta permite que los modelos de visión artificial aceleren el entrenamiento y reduzcan el uso de memoria sin sacrificar la precisión.
Durante el entrenamiento, la precisión mixta se consigue utilizando una precisión más baja en capas específicas, manteniendo al mismo tiempo una precisión más alta donde sea necesario en toda la red. Esto se hace mediante la conversión y el escalado de la pérdida. La conversión convierte los tipos de datos entre diferentes precisiones según lo requiera el modelo. El escalado de la pérdida ajusta la precisión reducida para evitar el desbordamiento numérico, garantizando un entrenamiento estable. La precisión mixta es especialmente útil para modelos grandes y tamaños de lote grandes.

Ahora que hemos cubierto varias técnicas de optimización de modelos, vamos a discutir cómo decidir cuál usar en función de tus necesidades específicas. La elección depende de factores como el hardware disponible, las limitaciones computacionales y de memoria del entorno de implementación y el nivel de precisión requerido.
Por ejemplo, los modelos más pequeños y rápidos son más adecuados para dispositivos móviles con recursos limitados, mientras que los modelos más grandes y precisos pueden utilizarse en sistemas de alto rendimiento. A continuación, se explica cómo se alinea cada técnica con diferentes objetivos:
La optimización de modelos es una parte vital del aprendizaje automático, especialmente para implementar la IA en aplicaciones del mundo real. Técnicas como el ajuste de hiperparámetros, el pruning de modelos, la cuantización y la precisión mixta ayudan a mejorar el rendimiento, la eficiencia y el uso de recursos de los modelos de visión artificial. Estas optimizaciones hacen que los modelos sean más rápidos y requieran menos recursos, lo cual es ideal para dispositivos con memoria y potencia de procesamiento limitadas. Los modelos optimizados también son más fáciles de escalar e implementar en diferentes plataformas, lo que permite soluciones de IA que son a la vez eficaces y adaptables a una amplia gama de usos.
Visite el repositorio de GitHub de Ultralytics y únase a nuestra comunidad para obtener más información sobre las aplicaciones de la IA en la fabricación y la agricultura.