Detección de bordes en el tratamiento de imágenes

Abirami Vina

5 minutos de lectura

25 de agosto de 2025

Detección de bordes en el procesamiento de imágenes. Aprenda Sobel, Canny y otros algoritmos de detección de bordes para detectar bordes con precisión y lograr un reconocimiento de bordes robusto.

Cuando miramos una imagen, los seres humanos reconocemos los bordes de los objetos, seguimos sus curvas y nos fijamos en las texturas de sus superficies. Sin embargo, para un ordenador, la comprensión comienza a nivel de píxeles individuales.

Un píxel, la unidad más pequeña de una imagen digital, almacena el color y el brillo en un único punto. Al rastrear los cambios en los valores de estos píxeles a lo largo de una imagen, un ordenador puede detectar patrones que revelan detalles clave.

En concreto, el procesamiento de imágenes utiliza datos de píxeles para resaltar las características esenciales y eliminar las distracciones. Una técnica habitual de procesamiento de imágenes es la detección de bordes, que identifica puntos en los que el brillo o el color cambian bruscamente para delinear objetos, marcar límites y añadir estructura.

Esto permite a los ordenadores separar formas, medir dimensiones e interpretar cómo se conectan las partes de una escena. La detección de bordes suele ser el primer paso en el análisis avanzado de imágenes.

Fig. 1. Ejemplo que muestra la imagen original junto a los resultados de distintos métodos de detección de bordes.(Fuente)

En este artículo veremos qué es la detección de bordes, cómo funciona y sus aplicaciones en el mundo real. Empecemos.

Conceptos de detección de bordes

La detección de bordes se centra en buscar lugares de una imagen en los que el brillo o el color cambien notablemente de un punto a otro. Si el cambio es pequeño, la zona parece suave. Si el cambio es brusco, suele marcar el límite entre dos regiones diferentes.

Estas son algunas de las razones por las que se producen estos cambios de píxeles:

  • Discontinuidades normales de superficie: Cuando dos superficies se encuentran en ángulo, como la esquina de una pared o el borde de una caja, este cambio brusco de orientación produce un límite claro en la imagen.
  • Discontinuidades de profundidad: Aparecen cuando los objetos están a diferentes distancias de la cámara, produciendo una separación visible que ayuda al sistema a distinguirlos.
  • Cambios en el color o la textura de la superficie: Esto ocurre cuando un área tiene un color o textura diferente del área adyacente, creando una separación visible.
  • Cambios de iluminación: Surge de los cambios de iluminación, incluidas las sombras o brillos sobre las superficies, creando separaciones visibles incluso cuando las propias superficies son lisas o continuas.
Fig. 2. Diferentes tipos de discontinuidades en los bordes de las imágenes.(Fuente)

Cómo funciona el reconocimiento por detección de bordes

La detección de bordes suele empezar por convertir una imagen en color en una imagen en escala de grises, de modo que cada punto sólo muestre el brillo. Esto facilita que el algoritmo se centre en las diferencias de luz y oscuridad en lugar de en el color.

A continuación, unos filtros especiales pueden escanear la imagen para encontrar los lugares en los que la luminosidad cambia repentinamente. Estos filtros calculan la pendiente de los cambios de brillo, lo que se denomina gradiente. Un gradiente más alto se debe a una mayor diferencia entre puntos cercanos, lo que suele indicar un borde.

A continuación, el algoritmo va refinando la imagen, eliminando pequeños detalles y manteniendo sólo las líneas y formas más importantes. El resultado es un contorno claro y una imagen de salida que puede utilizarse para análisis posteriores.

Evolución de la detección de bordes y el tratamiento de imágenes

Antes de profundizar en la detección de bordes, veamos cómo ha evolucionado con el tiempo.

El tratamiento de imágenes comenzó con métodos sencillos basados en reglas, como el umbral y el filtrado, para limpiar y mejorar las imágenes. En la era analógica, esto significaba trabajar con fotografías o películas utilizando filtros ópticos, lupas o tratamientos químicos para resaltar los detalles. 

Técnicas como el ajuste del contraste, la reducción del ruido, el ajuste de la intensidad de la imagen y la detección básica de bordes ayudaron a hacer más claras las imágenes de entrada y a resaltar formas y texturas. En las décadas de 1960 y 1970, el paso del procesamiento analógico al digital abrió el camino al análisis moderno en ámbitos como la astronomía, la imagen médica y la vigilancia por satélite.

En las décadas de 1980 y 1990, la mayor velocidad de los ordenadores permitió abordar tareas más complejas, como la extracción de características, la detección de formas y el reconocimiento básico de objetos. Algoritmos como el operador Sobel y Canny ofrecían una detección de bordes más precisa, mientras que el reconocimiento de patrones encontró aplicaciones en todo tipo de campos, desde la automatización industrial hasta la lectura de texto impreso mediante el reconocimiento óptico de caracteres.

Detección de bordes y visión por ordenador en el siglo XXI

En la actualidad, los constantes avances tecnológicos han permitido el desarrollo de la visión por ordenador. La IA de visión, o visión por ordenador, es una rama de la IA que se centra en enseñar a las máquinas a interpretar y comprender la información visual. 

Mientras que el procesamiento tradicional de imágenes, como el doble umbral (que aclara las imágenes conservando los bordes fuertes y eliminando los débiles) y la detección de bordes, seguían reglas fijas y sólo podían realizar tareas específicas, la visión por ordenador utiliza modelos basados en datos que pueden aprender de los ejemplos y adaptarse a nuevas situaciones. 

Hoy en día, los sistemas de imagen van mucho más allá del mero realce de imágenes o la detección de bordes. Pueden reconocer objetos, seguir movimientos y comprender el contexto de toda una escena. 

Una de las técnicas clave que lo hace posible es la convolución. Una operación de convolución es un proceso en el que pequeños filtros (también llamados núcleos) escanean una imagen para encontrar patrones importantes como bordes, esquinas y texturas. Estos patrones se convierten en los componentes básicos que los modelos de visión por ordenador utilizan para reconocer y comprender los objetos.

Por ejemplo, los modelos de visión por ordenador como Ultralytics YOLO11 utilizan estas características basadas en la convolución para realizar tareas avanzadas como la segmentación de instancias. Esto está estrechamente relacionado con la detección de bordes, ya que la segmentación de instancias requiere delinear con precisión los límites de cada objeto en una imagen. 

Mientras que la detección de bordes se centra en encontrar cambios de intensidad en los píxeles de los bordes para marcar los bordes de los objetos, la segmentación de instancias se basa en esa idea para detectar bordes, clasificar y separar cada objeto en su propia región.

Fig. 3. Un vistazo al uso de YOLO11 y la segmentación de instancias.(Fuente.)

Algoritmos y enfoques de detección de bordes

Incluso con el crecimiento de la visión por ordenador, el procesamiento de imágenes sigue siendo una parte importante de muchas aplicaciones. Esto se debe a que la visión por ordenador a menudo se basa en pasos básicos de preprocesamiento de imágenes. 

Antes de detectar objetos o comprender una escena, los sistemas suelen limpiar la imagen, reducir el ruido y encontrar bordes para que destaquen los detalles clave. Estos pasos hacen que los modelos avanzados sean más precisos y eficaces.

A continuación, vamos a explorar algunos de los algoritmos de procesamiento de imágenes más comunes utilizados para detectar bordes y cómo funcionan. 

Detección de bordes Sobel

La detección de bordes de Sobel es un método clave para encontrar los contornos de los objetos de una imagen. En lugar de analizar todos los detalles a la vez, se centra en las zonas donde el brillo cambia bruscamente de un píxel al siguiente píxel vecino. 

Estos cambios bruscos suelen marcar el punto en el que termina un objeto y empieza otro, o en el que un objeto se encuentra con el fondo. Al aislar estos bordes, Sobel transforma una imagen compleja en un contorno más limpio y fácil de procesar por otros sistemas para tareas como el seguimiento de movimientos, la detección de formas o el reconocimiento de objetos.

La detección de bordes de Sobel es un detector de gradiente que mide los cambios de intensidad en una imagen. En esencia, funciona mediante una operación de convolución: se deslizan pequeñas matrices, llamadas núcleos, por la imagen y se calculan las sumas ponderadas de los valores de los píxeles vecinos. 

Estos núcleos están diseñados para enfatizar los cambios de brillo a lo largo de las direcciones horizontal y vertical. A diferencia de los modelos de aprendizaje profundo, en los que los núcleos se aprenden a partir de los datos, Sobel utiliza núcleos fijos para resaltar eficazmente los bordes sin necesidad de entrenamiento.

A continuación se explica cómo funciona el método Sobel de detección de bordes:

  • Utilizar dos filtros de 3×3: Este método utiliza dos pequeñas cuadrículas de 3×3, llamadas filtros. Piense en ellos como plantillas que se deslizan sobre la imagen en dirección horizontal (dirección x) y vertical (dirección y). Una rejilla está diseñada para encontrar los bordes horizontales y la otra para los verticales.

  • Cálculo del gradiente: Cada filtro calcula la velocidad a la que cambia el brillo y la dirección del gradiente. Un cambio grande significa un posible borde.

  • Combinación de resultados: Los resultados horizontales y verticales se combinan para determinar la intensidad y dirección general del borde en cada píxel.

  • Detección de bordes: Los píxeles con una magnitud de gradiente elevada se marcan como bordes fuertes.

  • Delinear los límites: Estos bordes ayudan a definir las formas de los objetos y a separar las distintas regiones de la imagen.
Fig. 4. La detección de bordes Sobel puede resaltar los contornos principales de una imagen de entrada y producir un mapa de bordes. (Fuente) 

Detección inteligente de bordes

La detección de bordes Canny es otro método popular para encontrar bordes en una imagen. Es conocido por producir contornos limpios y precisos. A diferencia de las técnicas básicas de detección de bordes, sigue una serie de pasos cuidadosamente diseñados para filtrar el ruido, afinar los límites y centrarse en los bordes más importantes. 

A continuación le explicamos cómo funciona un detector de bordes Canny:

  • Suavizado de la imagen: La imagen se difumina primero con un filtro gaussiano, una técnica de suavizado que reduce el ruido y los pequeños detalles que podrían confundirse con bordes.
  • Detección de cambios de luminosidad: A continuación, el algoritmo busca cambios bruscos de brillo y utiliza cálculos de gradiente para medir la intensidad y la dirección de esos cambios.

  • Adelgazamiento de los bordes: Sólo se mantienen los puntos más fuertes a lo largo de cada línea detectada, mientras que los puntos más débiles se eliminan, lo que da como resultado unos bordes nítidos y limpios.

  • Clasificación de los bordes: Cada píxel se etiqueta como fuerte, débil o no borde, basándose en valores umbral de cambio de brillo.

  • Limpieza final: Las aristas débiles conectadas a las fuertes se mantienen; todas las demás se descartan, dejando sólo límites claros y conectados.
Fig. 5. Imagen original y su respectiva imagen de salida tras utilizar el detector de bordes Canny.(Fuente.)

Dado que ofrece resultados precisos al tiempo que filtra el ruido, la detección de bordes Canny se utiliza ampliamente en áreas en las que la precisión es importante. Por ejemplo, se utiliza en sectores como la imagen médica, la cartografía por satélite, el escaneado de documentos y la visión robótica.

Detección de bordes basada en gradiente frente a la basada en Gauss

Hasta ahora, los dos ejemplos de detección de bordes que hemos visto son Sobel y Canny. Aunque ambos pretenden encontrar bordes, abordan el problema de forma diferente.

Los métodos basados en el gradiente (como Sobel, Prewitt y Scharr) detectan los bordes buscando cambios bruscos en el brillo, lo que se conoce como gradiente. Escanean la imagen y marcan los lugares donde este cambio es más acusado. Estos métodos son sencillos, rápidos y funcionan bien cuando las imágenes son claras. Sin embargo, son sensibles al ruido: pequeñas variaciones de brillo pueden confundirse con bordes.

Los métodos basados en Gauss (como el Canny o el Laplaciano de Gauss) añaden un paso adicional para tratar este problema: desenfocar primero la imagen. Este suavizado, a menudo realizado con un filtro gaussiano, reduce las pequeñas variaciones que podrían crear bordes falsos. Tras el suavizado, estos métodos siguen buscando cambios bruscos de brillo, pero los resultados son más limpios y precisos para imágenes ruidosas o de baja calidad.

Fig. 6. Detección de bordes basada en gradiente frente a la basada en Gauss. Imagen del autor.

Aplicaciones reales de la detección de bordes

Una vez comprendido mejor cómo funciona la detección de bordes, vamos a explorar cómo se aplica en situaciones del mundo real.

Detección de bordes para identificar grietas

La inspección de grandes estructuras de hormigón, como puentes y edificios de gran altura, suele ser una tarea ardua y peligrosa. Estas estructuras pueden abarcar largas distancias o alcanzar grandes alturas, lo que hace que las inspecciones tradicionales sean lentas, caras y arriesgadas. Estas inspecciones también suelen requerir andamios, acceso mediante cuerdas, mediciones manuales de cerca o fotografías.

En 2019 se exploró un enfoque interesante, cuando los investigadores probaron un método más seguro y rápido utilizando drones equipados con cámaras de alta resolución para capturar imágenes de entrada detalladas de superficies de hormigón. A continuación, estas imágenes se procesaron con diversas técnicas de detección de bordes para identificar automáticamente las grietas.

El estudio demostró que este método reducía significativamente la necesidad de acceso humano directo a zonas peligrosas y agilizaba las inspecciones. Sin embargo, su precisión seguía dependiendo de factores como las condiciones de iluminación, la claridad de la imagen y el funcionamiento estable del dron. En algunos casos, seguía siendo necesaria la revisión humana para eliminar falsos positivos.

Aplicación de la detección de bordes a las imágenes médicas

Las radiografías y las resonancias magnéticas a menudo contienen alteraciones visuales conocidas como ruido, que pueden dificultar la visualización de detalles finos. Esto supone un reto para los médicos a la hora de detectar los bordes de un tumor, trazar el contorno de un órgano o detectar cambios sutiles a lo largo del tiempo.

Un reciente estudio sobre imágenes médicas ha puesto a prueba la capacidad de los métodos habituales de detección de bordes, como Sobel, Canny, Prewitt y Laplacian, para manejar imágenes ruidosas. Los investigadores añadieron distintos tipos y niveles de ruido a las imágenes y comprobaron la precisión con la que cada método podía delinear características importantes.

Canny suele producir los bordes más limpios, incluso con mucho ruido, pero no es el mejor en todos los casos. Algunos métodos funcionan mejor con determinados patrones de ruido, por lo que no existe una solución perfecta.

Fig. 7. Canny (d-f) proporciona bordes más nítidos que Sobel (g-i) a medida que aumenta el ruido.(Fuente.)

Por eso son tan importantes tecnologías como la visión por ordenador. Mediante la combinación de algoritmos avanzados y modelos de IA de visión, estas soluciones pueden ir más allá de la detección básica de bordes para ofrecer resultados más precisos y fiables incluso en condiciones difíciles.

Ventajas de la detección de bordes

Estas son algunas de las ventajas de utilizar la detección de bordes y el procesamiento de imágenes: 

  • Mejor compresión de datos: La detección de bordes permite representar las imágenes utilizando sólo las características clave, lo que reduce el tamaño del archivo conservando la información esencial. Esto hace que el almacenamiento y la transmisión sean más eficientes.

  • Localización de objetos más precisa: Al identificar con precisión los límites de los objetos, la detección de bordes mejora la capacidad de los sistemas para localizar y seguir objetos, lo que beneficia a aplicaciones como Vision AI en robótica y vehículos autónomos.

  • Detección de características multiescala: Las técnicas de detección de bordes pueden analizar imágenes a diferentes escalas, captando tanto pequeños detalles como formas más amplias. Esta flexibilidad es útil para diversas tareas, desde el análisis de texturas hasta la comprensión de escenas.

Limitaciones del procesamiento de imágenes para la detección de bordes

Aunque la detección de bordes en el procesamiento de imágenes tiene muchas ventajas, también plantea algunos problemas. Estas son algunas de las principales limitaciones que hay que tener en cuenta:

  • Problemas con texturas complejas: En imágenes con patrones intrincados o repetitivos, la detección de bordes suele producir muchos bordes falsos o irrelevantes, lo que complica el análisis posterior y reduce la fiabilidad.

  • Sensible a la iluminación: Las variaciones en el brillo, las sombras y los reflejos pueden hacer que los detectores de bordes interpreten erróneamente los cambios en la iluminación como límites del objeto, lo que da lugar a resultados incoherentes.

  • No hay identificación de objetos: Aunque los bordes señalan dónde empiezan y acaban los objetos, no muestran qué objetos son. Se necesita un procesamiento adicional para asignar significado o etiquetas a los bordes detectados.

Cuándo puede utilizarse la visión por ordenador para la detección de bordes

La detección de bordes se inspira en el modo en que nuestros ojos y nuestro cerebro trabajan juntos para dar sentido al mundo. En lo que respecta a la visión humana, las neuronas especializadas de la corteza visual son muy sensibles a los bordes, las líneas y los límites. 

Estas señales visuales nos ayudan a determinar rápidamente dónde acaba un objeto y empieza otro. Por eso incluso un simple dibujo lineal puede reconocerse al instante: nuestro cerebro se basa en gran medida en los bordes para identificar formas y objetos.

La visión por ordenador pretende imitar esta capacidad, pero va un paso más allá. Modelos como Ultralytics YOLO11 van más allá del resaltado básico de bordes y la mejora de imágenes. Pueden detectar objetos, delinearlos con precisión y seguir su movimiento en tiempo real. Este nivel de comprensión más profundo los hace esenciales en situaciones en las que la detección de bordes por sí sola no es suficiente.

Uso de Ultralytics YOLO11 para detectar bordes con mayor precisión

Estas son algunas de las principales tareas de visión por ordenador que admite YOLO11 y que van más allá de la detección de bordes:

  • Detección de objetos: Identifica y localiza múltiples objetos en una imagen o vídeo dibujando recuadros delimitadores alrededor de cada uno, lo que ofrece una visión clara de lo que está presente y de dónde se sitúa cada objeto.

  • Segmentación de instancias: Consiste en descomponer los objetos hasta el nivel de píxel, produciendo contornos limpios y precisos incluso cuando los objetos se superponen o tienen formas irregulares.

  • Estimación de la postura: El objetivo aquí es determinar la posición, orientación o postura de un objeto o persona, lo que ayuda a monitorizar el movimiento o detectar cambios estructurales a lo largo del tiempo.

  • Seguimiento de objetos: Esta tarea sigue a un objeto a medida que se desplaza por los fotogramas de vídeo, garantizando una identificación coherente para una observación precisa a largo plazo.

  • Clasificación de imágenes: Asigna etiquetas a objetos o imágenes enteras en función de sus características visuales, lo que facilita la organización e interpretación de grandes conjuntos de datos.

Detección de bordes en infraestructuras mediante visión por ordenador

Un buen ejemplo de cómo la visión por ordenador puede mejorar una aplicación que tradicionalmente se basaba en la detección de bordes es la detección de grietas en infraestructuras y activos industriales. Los modelos de visión artificial como YOLO11 pueden entrenarse para identificar con precisión grietas en carreteras, puentes y tuberías. La misma técnica puede aplicarse también al mantenimiento de aeronaves, las inspecciones de edificios y el control de calidad en la fabricación, contribuyendo a acelerar las inspecciones y mejorar la seguridad.

Fig. 8. Ejemplo de uso de YOLO11 para la segmentación de grietas.(Fuente)

Principales conclusiones

La detección de bordes ha recorrido un largo camino, desde los primeros métodos sencillos hasta las técnicas avanzadas que pueden detectar incluso los límites más sutiles en imágenes complejas. Ayuda a resaltar detalles importantes, destacar áreas clave y preparar imágenes para un análisis más profundo, lo que la convierte en una parte esencial del procesamiento de imágenes.

En visión por ordenador, la detección de bordes desempeña un papel importante en la definición de formas, la separación de objetos y la extracción de información útil. Se utiliza en muchos ámbitos, como la imagen médica, las inspecciones industriales, la conducción autónoma y la seguridad, para ofrecer una comprensión visual precisa y fiable.

Únase a nuestra comunidad y explore nuestro repositorio de GitHub para descubrir más sobre la IA. Si desea iniciar su propio proyecto de Vision AI, consulte nuestras opciones de licencia. Descubra más sobre aplicaciones como la IA en la sanidad y Vision AI en el comercio minorista visitando nuestras páginas de soluciones.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles