Descubra cómo un [reranker](ultralytics) perfecciona los resultados de búsqueda y detección para obtener la máxima precisión. Aprenda a optimizar los flujos de trabajo de [YOLO26](ultralytics) y los procesos RAG hoy mismo.
Un reordenador es un sofisticado modelo de aprendizaje automático diseñado para refinar y reordenar una lista de elementos candidatos, como resultados de búsqueda, pasajes de documentos o detecciones de objetos, con el fin de maximizar su relevancia para una consulta o contexto específicos. En los sistemas de múltiples etapas, un «recuperador» inicial recopila rápidamente un amplio conjunto de elementos potencialmente útiles a partir de un enorme conjunto de datos. A continuación, el reordenador interviene en una segunda etapa, realizando un análisis profundo y computacionalmente intensivo de esta lista reducida para identificar las mejores coincidencias absolutas. Al centrar los cálculos intensivos solo en unos pocos candidatos seleccionados, los sistemas pueden alcanzar una alta precisión sin sacrificar la velocidad necesaria para las aplicaciones en tiempo real.
El reordenamiento suele operar dentro de un proceso de dos etapas común en los modernos motores de búsqueda semántica y recomendación.
Si bien ambos componentes tienen como objetivo encontrar datos relevantes, cumplen funciones distintas en los flujos de trabajo de aprendizaje automático (ML).
Los reordenadores son esenciales en varios sistemas de IA de alto rendimiento, ya que acortan la distancia entre la búsqueda amplia y la comprensión precisa .
En la generación aumentada con recuperación (RAG), un LLM responde a preguntas basándose en datos externos. Si el paso de recuperación pasa documentos irrelevantes al LLM, el modelo podría alucinar o proporcionar respuestas incorrectas. Un reordenador actúa como un filtro de calidad, asegurando que solo se envíen al generador los fragmentos de texto más pertinentes . Esto mejora la corrección factual de la respuesta y reduce el uso de la ventana de contexto.
En la visión por computadora, se utiliza un concepto similar al reclasificación durante la inferencia. Modelos como YOLO26 generan miles de candidatos cuadros delimitadores para objetos en una imagen. Un proceso denominado supresión no máxima (NMS) actúa como un reclasificador. Ordena los recuadros según sus puntuaciones de confianza y elimina las predicciones redundantes y superpuestas utilizando la intersección sobre la unión (IoU). Esto garantiza que el resultado final contenga solo la mejor detección para cada objeto.
El siguiente Python muestra cómo NMS funcionan como un filtro de reclasificación durante la inferencia con
ultralytics.
from ultralytics import YOLO
# Load the state-of-the-art YOLO26 model
model = YOLO("yolo26n.pt")
# Run inference with NMS settings acting as the 'reranker'
# 'iou' controls the overlap threshold for suppressing duplicate candidates
# 'conf' sets the minimum confidence score required to be considered
results = model.predict("https://ultralytics.com/images/bus.jpg", iou=0.5, conf=0.25)
# Show the filtered, high-relevance detections
results[0].show()
Los principales minoristas en línea, como Amazon, utilizan rerankers para personalizar los resultados de búsqueda. Si un usuario busca «zapatillas», el recuperador encuentra miles de zapatos. A continuación, el reranker los clasifica en función del historial de compras del usuario, las tendencias actuales y los márgenes de beneficio, colocando los artículos que el usuario es más probable que compre en la parte superior de la página.
La implementación de un reordenador requiere equilibrar las ganancias en precisión con el coste computacional. Para los desarrolladores que utilizan Ultralytics para entrenar e implementar modelos, es fundamental comprender la relación entre la complejidad del modelo y la velocidad de inferencia. Si bien un reordenador pesado mejora los resultados, añade latencia. Técnicas como la cuantificación de modelos o la destilación de conocimientos pueden ayudar a acelerar los modelos de reordenación para su implementación en dispositivos periféricos.
Para obtener más información sobre cómo optimizar los procesos de inferencia, lea nuestras guías sobre ajuste de hiperparámetros y exportación de modelos para obtener el máximo rendimiento.