Glosario

Puesta a punto

Ajuste modelos de aprendizaje automático como Ultralytics YOLO para tareas específicas. Descubra aquí métodos, aplicaciones y buenas prácticas.

El ajuste fino es una técnica fundamental en el aprendizaje automático (AM) que consiste en tomar un modelo preentrenado en un gran conjunto de datos generales y seguir entrenándolo en un conjunto de datos más pequeño y especializado. Este proceso, una forma de aprendizaje por transferencia, adapta los conocimientos aprendidos del modelo para que destaque en una tarea específica sin tener que entrenar un modelo desde cero. Empezando con un modelo básico potente, los desarrolladores pueden conseguir un alto rendimiento con muchos menos datos y recursos informáticos, un concepto explorado por instituciones como el Stanford AI Lab.

Cómo funciona el ajuste fino

El proceso comienza con un modelo cuyas ponderaciones ya se han optimizado en un amplio conjunto de datos, como ImageNet para visión o un corpus de texto masivo para grandes modelos lingüísticos (LLM). Este modelo preentrenado ya comprende características generales, como los bordes y las texturas de las imágenes o la gramática y la semántica de los textos. El ajuste fino continúa el proceso de entrenamiento, normalmente con una tasa de aprendizaje más baja, en un conjunto de datos personalizado y adaptado a la aplicación de destino. De este modo, se ajustan los parámetros del modelo para especializarlo en los matices específicos de la nueva tarea. Frameworks como PyTorch y TensorFlow proporcionan amplias herramientas para implementar flujos de trabajo de ajuste fino.

Aplicaciones reales

El ajuste fino se utiliza ampliamente en la visión por ordenador (CV) y el procesamiento del lenguaje natural (PLN).

  • Análisis de imágenes médicas: Un modelo como Ultralytics YOLO11, preentrenado para la detección general de objetos en el conjunto de datos COCO, puede perfeccionarse en una colección especializada de resonancias magnéticas para detectar tumores con precisión. Esta personalización es fundamental para crear soluciones fiables de IA en el sector sanitario.
  • Chatbots personalizados: Una empresa puede ajustar un potente LLM como BERT a su documentación interna y registros de atención al cliente. El modelo resultante se convierte en un experto en los productos de la empresa, lo que permite crear un chatbot muy eficaz y consciente del contexto para su sitio web. Muchos de estos modelos están disponibles en plataformas como Hugging Face.

Ajuste fino frente a conceptos afines

Es importante diferenciar el ajuste fino de otras técnicas de adaptación de modelos:

  • Entrenamiento desde cero: Consiste en inicializar una red neuronal con pesos aleatorios y entrenarla con un conjunto de datos. Requiere grandes cantidades de datos y potencia de cálculo (por ejemplo, GPU) y suele ser menos eficiente que ajustar un modelo preentrenado.
  • Ajuste fino eficiente de parámetros (PEFT): PEFT es un conjunto de métodos que representan una evolución del ajuste fino más eficiente desde el punto de vista de los recursos. En lugar de actualizar todos los pesos del modelo, las técnicas PEFT como LoRA congelan el modelo original y entrenan sólo un pequeño número de parámetros nuevos. Esto reduce drásticamente los requisitos de memoria y almacenamiento, lo que facilita la adaptación de modelos muy grandes de organizaciones como Meta AI o Google.
  • Prompt Tuning: Un método PEFT específico en el que se congelan todos los pesos originales del modelo. En lugar de ajustar el modelo en sí, aprende "indicaciones suaves" especiales (incrustaciones entrenables) que se añaden a la entrada para guiar la salida del modelo para una tarea específica.
  • Generación mejorada por recuperación (RAG): Esta técnica mejora los resultados del modelo aportando conocimientos externos en el momento de la inferencia, en lugar de cambiar las ponderaciones del modelo durante el entrenamiento. La RAG recupera información relevante de una base de datos y la añade a la consulta para producir respuestas más precisas y actuales.

Ajuste fino con Ultralytics

Ultralytics simplifica el proceso de ajuste fino de sus modelos YOLO de última generación para aplicaciones personalizadas. Los usuarios pueden cargar fácilmente pesos preentrenados y empezar a entrenar sus propios conjuntos de datos para tareas como la clasificación, detección o segmentación de imágenes. La plataforma Ultralytics HUB agiliza aún más este flujo de trabajo, proporcionando una solución integrada para la gestión de conjuntos de datos, modelos de entrenamiento y eventual despliegue. Para obtener el mejor rendimiento, el ajuste fino suele combinarse con un cuidadoso ajuste de los hiperparámetros.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles