Glosario

Conjunto

¡Aumenta la precisión predictiva con métodos de conjunto! Aprende cómo la combinación de varios modelos mejora el rendimiento en la detección de objetos, la PNL y mucho más.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Los métodos de conjunto representan una poderosa técnica en el aprendizaje automático (AM) y la inteligencia artificial (IA) en la que múltiples modelos individuales, a menudo llamados aprendices base o aprendices débiles, se combinan estratégicamente para producir un único modelo predictivo más fuerte. La idea central es que al agregar las "opiniones" de varios modelos diversos, el modelo conjunto final puede lograr un mejor rendimiento, una mayor solidez y una mejor generalización en comparación con cualquier modelo constitutivo individual. Este enfoque aprovecha el principio de la "sabiduría de la multitud", mitigando los errores y sesgos de los modelos individuales para llegar a un resultado más fiable, crucial para tareas complejas en campos como la visión por ordenador (VC).

Cómo funcionan los conjuntos

Los métodos de conjunto funcionan entrenando primero varios modelos base. Estos modelos pueden ser del mismo tipo (conjunto homogéneo) o de tipos diferentes (conjunto heterogéneo), como la combinación de árboles de decisión, máquinas de vectores de soporte (SVM) y redes neuronales (NN). La clave suele estar en fomentar la diversidad entre los modelos base, lo que se consigue mediante técnicas como el entrenamiento en subconjuntos diferentes de los datos de entrenamiento o utilizando algoritmos o hiperparámetros diferentes. Una vez entrenados, las predicciones de estos modelos individuales se combinan utilizando una estrategia específica. Entre las estrategias habituales se incluyen el promedio de las predicciones (para tareas de regresión) o el voto por mayoría (para tareas de clasificación). Los métodos más sofisticados pueden incluir el promedio ponderado o el aprendizaje de otro modelo (un metaaprendizaje) para determinar la forma óptima de combinar los resultados del modelo base.

Ventajas de utilizar conjuntos

Emplear métodos de conjunto ofrece varias ventajas significativas:

  • Mejor rendimiento predictivo: Los conjuntos suelen ofrecer una mayor precisión y un mejor rendimiento en métricas como la puntuación F1 en comparación con los modelos individuales, ya que reducen el error global.
  • Mayor robustez: Al promediar las predicciones de múltiples modelos, los conjuntos son menos sensibles a las peculiaridades o al ruido de los datos de entrenamiento y a las debilidades específicas de los aprendices individuales. Esto ayuda a reducir el riesgo de sobreajuste.
  • Mejor generalización: Los conjuntos tienden a generalizarse mejor a los datos de prueba no vistos, porque captan una gama más amplia de patrones y es menos probable que estén sesgados por aspectos específicos del conjunto de entrenamiento. Esto está relacionado con la gestión del equilibrio entre sesgo y varianza.

Técnicas comunes de conjunto

Se utilizan varias técnicas establecidas para crear conjuntos eficaces:

  • Bagging (Agregación Bootstrap): Consiste en entrenar múltiples instancias del mismo aprendiz base en diferentes subconjuntos aleatorios de los datos de entrenamiento (muestreados con reemplazo). Las predicciones suelen agregarse mediante votación o promedio. Random Forest es un ejemplo popular de una técnica de agregación que utiliza árboles de decisión.
  • Refuerzo: Construye el conjunto secuencialmente. Cada nuevo modelo se centra en corregir los errores cometidos por los modelos anteriores. Algunos ejemplos son AdaBoost y las Máquinas de Aumento Gradiente (GBM).
  • Apilamiento (Generalización apilada): Combina predicciones de varios modelos base diferentes (por ejemplo, un Ultralytics YOLO un modelo RT-DETR y un SVM) entrenando un metamodelo (por ejemplo, regresión logística) para aprender a combinar mejor sus resultados. Más información sobre la generalización por apilamiento.

Distinción de términos afines

Es importante distinguir los conjuntos de otros conceptos de ML:

  • Un único modelo complejo: Aunque un único gran modelo (como una CNN profunda o un Transformador de Visión (ViT)) puede ser muy potente, un conjunto combina múltiples modelos, a menudo más sencillos, para lograr robustez y una precisión potencialmente mayor.
  • Aprendizaje por transferencia: Consiste en reutilizar un modelo preentrenado (o partes de él) como punto de partida para una nueva tarea, en lugar de combinar las salidas de múltiples modelos entrenados independientemente.
  • Aprendizaje multimodal: Se centra en el entrenamiento de modelos que puedan procesar e integrar información de distintos tipos de datos (por ejemplo, imagen y texto), mientras que los conjuntos suelen combinar modelos que trabajan con el mismo tipo de datos y tarea.

Aplicaciones en el mundo real

Los métodos de ensamblaje se utilizan mucho en diversos ámbitos debido a sus ventajas de rendimiento:

  1. Visión por ordenador para sistemas autónomos: En los vehículos autónomos y los sistemas avanzados de asistencia al conductor (ADAS), los conjuntos de modelos de detección de objetos (quizás combinando diferentes arquitecturas como YOLOv10 y YOLO11o modelos entrenados con diferentes estrategias de aumento de datos ) pueden proporcionar una detección más fiable de peatones, vehículos y obstáculos al mitigar los modos de fallo de cualquier modelo individual. Técnicas como el Aumento en Tiempo de Prueba (TTA), que promedia las predicciones sobre versiones aumentadas de la imagen de entrada, pueden considerarse una forma de ensamblaje en tiempo de inferencia.
  2. Detección de fraudes financieros: Las instituciones financieras suelen utilizar conjuntos de modelos diversos(regresión logística, gradient boosting, redes neuronales) para detectar transacciones fraudulentas. Combinar modelos que capten distintos patrones y tipos de comportamiento fraudulento conduce a un sistema de detección más sólido y preciso, crucial para minimizar las pérdidas financieras. Más información sobre la IA en las finanzas.
  3. Análisis de imágenes médicas: Los conjuntos de CNN se utilizan en el análisis de imágenes médicas para tareas como la detección de tumores o la clasificación de enfermedades (por ejemplo, utilizando YOLO11 para la detección de tumores). La combinación de modelos entrenados en diferentes subconjuntos de datos o con diferentes arquitecturas puede mejorar la precisión y fiabilidad del diagnóstico.
  4. Plataformas de competición: Los conjuntos son famosos por su eficacia en los concursos de aprendizaje automático, donde los participantes suelen combinar varios modelos de alto rendimiento para obtener una ventaja competitiva.

Ventajas y consideraciones

Aunque potentes, los conjuntos aumentan la complejidad y los requisitos computacionales para el entrenamiento y el despliegue de modelos. La gestión de múltiples modelos requiere más recursos y una cuidadosa ingeniería. Sin embargo, las importantes ganancias de rendimiento suelen justificar estos costes en aplicaciones críticas. Plataformas como Ultralytics HUB pueden simplificar la gestión y el entrenamiento de múltiples modelos, facilitando potencialmente la creación y el despliegue de conjuntos eficaces construidos utilizando marcos como PyTorch o TensorFlow. Evaluar las compensaciones entre las ganancias de rendimiento y el aumento de la complejidad durante la evaluación del modelo es esencial para las aplicaciones prácticas.

Leer todo