Glosario

Conjunto de modelos

Aumenta la precisión y robustez de los modelos con los Conjuntos de Modelos. Explora técnicas como bagging, boosting, stacking y aplicaciones del mundo real.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Un conjunto de modelos es un enfoque de aprendizaje automático (AM) en el que varios modelos individuales se combinan estratégicamente para producir un único resultado predictivo, a menudo superior. En lugar de basarse en un único modelo, el ensamblaje aprovecha la inteligencia colectiva de varios modelos, con el objetivo de mejorar el rendimiento general, aumentar la solidez y reducir la probabilidad de hacer predicciones erróneas debido a los puntos débiles de cualquiera de los modelos. Esta técnica es una piedra angular de la inteligencia artificial (IA) moderna y se aplica ampliamente en diversos ámbitos, incluida la visión por ordenador (VC). El ensamblaje de modelos pertenece a la categoría más amplia de Métodos de Ensamblaje.

Cómo funcionan los conjuntos modelo

La idea central que subyace al ensamblaje de modelos es que, combinando diversos modelos -modelos entrenados de forma diferente o utilizando algoritmos distintos-, sus errores individuales podrían anularse mutuamente, lo que daría lugar a una predicción final más precisa y fiable. Entre las estrategias habituales para combinar los resultados de los modelos se incluyen

  • Promedio/Voto: En las tareas de regresión, se promedian las predicciones de los modelos individuales. En las tareas de clasificación, la predicción final se determina por mayoría (votación dura) o promediando las probabilidades predichas (votación suave).
  • Bagging (Agregación Bootstrap): Múltiples instancias del mismo modelo base(árboles de decisión, por ejemplo) se entrenan independientemente en diferentes subconjuntos aleatorios de los datos de entrenamiento. El algoritmo Random Forest es un ejemplo clásico de ensacado.
  • Refuerzo: Los modelos se entrenan secuencialmente, y cada nuevo modelo se centra en corregir los errores cometidos por los anteriores. Algunos ejemplos son AdaBoost, Gradient Boosting y XGBoost.
  • Apilamiento: Las predicciones de varios modelos base diferentes (por ejemplo, una SVM, una red neuronal y un modelo k-Nearest Neighbors ) se utilizan como características de entrada para un "metamodelo" final (a menudo un modelo más sencillo como la regresión logística) que aprende cómo combinar mejor estas predicciones.

En el contexto del aprendizaje profundo, los ensamblajes pueden implicar la combinación de modelos con diferentes arquitecturas (como una CNN y un Transformador de Visión (ViT)), modelos entrenados con diferentes hiperparámetros, o modelos entrenados en diferentes subconjuntos de datos. También pueden ser eficaces técnicas como guardar los puntos de control del modelo en diferentes épocas y ensamblarlos (ensamblaje instantáneo).

Conjunto de modelos frente a métodos de conjunto

Aunque están estrechamente relacionados, estos términos tienen matices ligeramente diferentes.

  • Métodos de Ensemble: Se refiere a la amplia categoría de técnicas o algoritmos (como bagging, boosting, stacking) utilizados para crear y combinar múltiples modelos. Es la metodología.
  • Conjunto de modelos: Suele referirse al grupo concreto de modelos que se han combinado mediante un método de conjunto. Es el propio modelo compuesto resultante.

Esencialmente, utilizas métodos de conjunto para crear un conjunto de modelos.

Ventajas y consideraciones

Utilizar conjuntos de modelos ofrece ventajas significativas:

  • Rendimiento mejorado: Los conjuntos a menudo consiguen una mayor precisión y una mejor generalización que cualquier modelo constitutivo individual, y con frecuencia ganan competiciones de aprendizaje automático.
  • Mayor robustez: Al promediar los sesgos o errores de los modelos individuales, los conjuntos son menos sensibles a los valores atípicos o al ruido de los datos y menos propensos al sobreajuste.
  • Reducción de errores: Combinar diversos modelos ayuda a mitigar el riesgo de confiar en un único modelo defectuoso.

Sin embargo, hay que tener en cuenta algunas consideraciones:

  • Mayor complejidad: Formar, gestionar y desplegar varios modelos es intrínsecamente más complejo que manejar un solo modelo. El despliegue de modelos se vuelve más complicado.
  • Mayor coste computacional: Entrenar múltiples modelos requiere más recursos computacionales (CPU/GPU) y tiempo. La inferencia también puede ser más lenta, ya que hay que calcular y combinar las predicciones de todos los modelos base.
  • Interpretabilidad: Comprender por qué un conjunto hace una predicción concreta puede ser más difícil que interpretar un modelo único y más sencillo, aunque las técnicas de IA explicable (XAI ) están evolucionando.

Plataformas como Ultralytics HUB pueden ayudar a gestionar las complejidades del entrenamiento y seguimiento de múltiples modelos, simplificando potencialmente la creación de conjuntos eficaces.

Aplicaciones en el mundo real

Los conjuntos de modelos se utilizan ampliamente en diversos ámbitos:

  1. Detección de Objetos en Visión por Computador: En tareas como la conducción autónoma o la vigilancia de seguridad, diferentes modelos de detección de objetos (por ejemplo, diferentes versiones de Ultralytics YOLO como YOLOv8 y YOLOv10, o modelos como RT-DETR) podrían ensamblarse. Por ejemplo, combinar modelos entrenados en diferentes aumentos o en diferentes fases del entrenamiento(el Aumento del Tiempo de Prueba puede considerarse una forma de ensamblaje) puede mejorar la precisión de la detección y la robustez en condiciones difícilesYOLOv5 Guía de Ensamblaje de Modelos YOLOv5).
  2. Diagnóstico médico: Los conjuntos pueden combinar predicciones de distintos modelos que analizan imágenes médicas (como radiografías o resonancias magnéticas) o datos de pacientes. Un modelo puede destacar en la detección de ciertas anomalías, mientras que otro es mejor en otras diferentes. Ensamblarlos puede dar lugar a una herramienta de diagnóstico más fiable, crucial para aplicaciones como la detección de tumores.
  3. Predicción financiera: Predecir los precios de las acciones o el riesgo crediticio a menudo implica una gran incertidumbre. Ensamblar modelos entrenados en diferentes ventanas de datos históricos o utilizando diferentes indicadores económicos puede proporcionar previsiones más estables y precisas que cualquier modelo predictivo individual. Más información sobre la IA en las finanzas.
  4. Control de calidad en la fabricación: La combinación de modelos que inspeccionan los productos desde distintos ángulos o se centran en distintos tipos de defectos puede crear un sistema de inspección de la calidad más completo que un único modelo de visión(Visión computerizada en la fabricación).

El ensamblaje de modelos es una poderosa técnica para ampliar los límites de rendimiento de los sistemas de ML, lo que la convierte en una valiosa herramienta para los desarrolladores de IA.

Leer todo